?

采用量化離散余弦變換系數檢測視頻單幀連續多次復制粘貼篡改

2016-05-14 10:01林晶黃添強賴玥聰盧賀楠
計算機應用 2016年5期
關鍵詞:特征向量閾值均值

林晶 黃添強 賴玥聰 盧賀楠

摘要:目前大多數時域視頻幀復制粘貼篡改檢測算法都是針對至少20幀以上的視頻子序列的復制粘貼篡改,而對單幀復制粘貼篡改無法判斷。而根據人眼視覺感知的特性,修改視頻內容需要至少15幀以上的幀操作, 因此篡改幀想通過單幀復制粘貼篡改來達到想要的效果,必須進行連續多次粘貼操作。為了檢測這種篡改方式,針對性地提出了一種基于量化離散余弦變換(DCT)系數的視頻單幀連續多次復制粘貼篡改檢測算法。首先,將視頻轉換為圖像,采用量化后的DCT系數作為視頻幀圖像特征向量,并通過計算巴氏(Bhattacharyya)系數來衡量兩相鄰幀幀間相似度;再設定閾值來判斷兩相鄰幀幀間相似度是否有異常,最后根據出現相似度異常的幀是否連續,以及連續出現的幀數來判斷視頻是否經過篡改,并定位篡改位置。實驗結果表明,所提算法對不同場景的視頻都能檢測,不僅檢測速度快,而且不受再壓縮因素影響,算法的正確率高、漏檢率低。

關鍵詞:視頻篡改檢測;單幀復制粘貼;離散余弦變換;幀間相似度;Bhattacharyya系數

中圖分類號:TP391 文獻標志碼:A

Abstract:Most existing detection algorithms of video frame copymove forgery in time domain were designed for the copymove forgery of video sequence containing 20 frames at least, and are difficult to detect single frame forgery. While according to the characteristics of human visual perception, 15 frames at least were needed to modify the video meaning. So when goal in vision was made by the tampering, continuous operation and many times were needed. In order to detect the tampering, a detection algorithm based on quantized Discrete Cosine Transform (DCT) coefficients for continuous and repeated single frame copymove forgery in videos was proposed. Firstly, the video was converted into images, and quantized DCT coefficients were taken as the feature vector of a frame image. Then, the similarity between frames was measured by calculating Bhattacharyya coefficient, and threshold was set to judge the abnormal similarity between two adjacent frames. Finally, whether the video was tampered and the tampered positions were determined by the continuity of frames with abnormal similarity and the number of continuous frames. The experimental results show that the proposed algorithm can detect the video with different scenarios, it possesses fast detection speed, and is not affected by further compression factors, but also is of high accuracy and low omission ratio.

Key words:video tampering detection; single frame copymove; Discrete Cosine Transform (DCT); intraframe similarity; Bhattacharyya coefficient

0 引言

近年來隨著高質量低價格數碼攝像機的普及和視頻分享網站的流行,數字視頻已經成為我們日常生活中的重要組成部分[1]。同時,隨著多媒體技術的發展,視頻編輯軟件的不斷更新,人們可以根據需要更加輕易地編輯視頻,修改視頻內容,達到更好的視覺效果。然而,技術進步方便人類的同時,也帶來了不利影響。如果不法分子利用軟件惡意篡改視頻毀滅證據、修改視頻內容,被惡意篡改的視頻經過網絡傳播,在一定程度上會影響社會的穩定,因此,視頻篡改檢測技術的研究目前已是信息安全的一項重要課題[2]。

由于篡改形式的多種多樣,國內外越來越多的學者針對不同篡改形式提出了不同的檢測算法。Wang等[3]將圖像雙壓縮篡改檢測的方法延伸應用在視頻上,提出通過計算MPEG(Moving Picture Experts Group)視頻流中每個P幀的運動誤差,觀察誤差的周期性變化來判斷視頻是否經過篡改。文獻[4]提出了一種基于視頻修復痕跡——“鬼影”的視頻篡改檢測算法,對于移除視頻中目標運動物體的篡改,由于在篡改后需要采用修復技術對移除運動對象區域進行修復,而修復的結果通常會破壞視頻運動軌跡連續性和一致性,通過檢測視頻遺留的修復痕跡判斷視頻是否經過篡改。復制粘貼類型的篡改方式是一種常見的視頻篡改手段,可以分為:時域復制粘貼和空域復制粘貼??沼驈椭普迟N篡改,其實質和單幅圖像的復制粘貼篡改類似,將視頻幀內的區域對象復制到該幀的其他位置或復制到其他幀中以達到隱藏對象的篡改目的;而時域復制粘貼篡改則是以幀為單位的復制粘貼,使得視頻中的部分場景被替換或隱藏[5-7]。時域復制粘貼篡改的方式通常是復制一段連續多幀的視頻子序列到視頻中?,F有的研究針對這種篡改方式提出了檢測方法。文獻[8]利用時空相關性矩陣來檢測復制粘貼視頻,首先將視頻幀序列分為重疊的多個短子序列,計算各個短子序列在時間上和空間上的相關性矩陣,然后利用相關性矩陣來檢測。這種劃分為子序列的方法使得算法對靜止視頻或運動相對緩慢的視頻檢測效果不佳。文獻[9]提出了一種由粗到細的匹配方法來檢測時間域上的復制粘貼篡改,將大小相等的子序列進行粗匹配,相似度大于閾值的序列作為候選片段,再對候選片段進行細匹配,但由于粗匹配得到的候選片段的精度不高,導致細匹配上的時間代價高。文獻[10]提出了一種利用結構相似度來檢測時間域上視頻幀復制粘貼的篡改,算法將視頻幀序列劃分為多個重疊的子序列,利用結構相似性理論來度量視頻幀間的相似性,最后通過時間域上子序列間的匹配策略尋找出存在復制關系的子序列對,合并子序列對并定位出視頻中復制片段的具體位置。算法檢測的原理是基于時間域上子序列間的匹配策略,對單幀模式的復制粘貼篡改失效。

目前已有的視頻時域復制粘貼篡改檢測算法適用于連續多幀的子序列復制粘貼篡改,對單幀復制粘貼篡改無法正確檢測。然而視頻幀在經過連續多次復制粘貼操作后也能夠達到篡改視頻內容的目的,改變視頻原本傳達的真實含義, 因此本文首次針對單幀模式的復制粘貼篡改提出檢測算法,采用量化離散余弦變換(Discrete Cosine Transform, DCT)系數的方法檢測與定位篡改位置,該方法不僅能準確地判斷視頻是否經過篡改,而且檢測速度快,能夠精確地定位篡改位置,算法檢測的正確率高,漏檢率低。

1 單幀連續多次復制粘貼篡改模式

視頻單幀連續多次復制粘貼篡改是指用原始視頻中的某一幀進行多次復制并連續粘貼插入到原始視頻序列中或替換原始視頻中的某些幀,使得原始視頻中的部分場景被替換或被推遲/提前發生,同時又不影響視頻的連續性。單幀篡改操作一次在視覺上對視頻的影響非常小,可以忽略不計,因此單幀操作若想達到篡改目的,必須進行連續多次復制粘貼。這種篡改方式能夠達到覆蓋原始視頻的部分場景,或延遲特定事件發生的目的,不僅能改變視頻內容,而且用肉眼不能直接觀察出。但目前已有的幀間復制粘貼篡改檢測算法都是適用于連續多幀的視頻子序列復制粘貼篡改,因此針對視頻單幀連續多次復制粘貼篡改方式的檢測是非常必要的。序列復制粘貼篡改過程與單幀連續多次復制粘貼篡改過程對比如圖1~2所示,其中,視頻序列復制粘貼篡改過程如圖1所示。而本文算法檢測的單幀多次復制粘貼篡改過程如圖2所示。

2 篡改檢測算法

從上面的篡改示意圖可以看出視頻單幀連續多次復制粘貼篡改后會使得視頻增加一段靜止畫面的視頻序列,那么真實的原始視頻中原有的靜止畫面就會對檢測篡改造成很大的干擾,難以用肉眼直接分辨靜止畫面視頻序列的真實性。算法檢測的目的在于判斷視頻是否經過篡改,并尋找篡改位置。由于篡改是以幀為單位的復制,對整個視頻而言,篡改后得到的序列相鄰幀幀間相似度會高于其他位置的幀間相似度, 因此本文通過檢測是否出現幀間相似度相對高的序列來判定視頻是否經過篡改。

2.1 算法流程

算法首先將視頻轉化為幀圖像,提取各幀特征向量,本文采用圖像DCT系數作為幀圖像的特征向量,利用巴氏系數衡量特征向量間的相似度即幀間圖像相似度。尋找相似度高于設定閾值的可疑幀,并排除可疑幀連續出現次數小的序列,初步定位可疑序列起始終止位置。為了避免原始視頻中真實的靜止畫面對篡改檢測流程的干擾,再次驗證初步定位的可疑篡改序列的準確性,計算可疑序列的起始位置幀與結束位置幀的幀間相似度,進一步判斷視頻是否經過篡改,以及定位篡改位置。算法檢測流程如圖3所示。

當count大于一定閾值Tlength時,說明視頻經過篡改,篡改序列位置位于start~ending;否則說明視頻未經過篡改。在計算可疑幀連續出現的次數時,若中間出現1~2幀的非可疑篡改幀,忽略不計,這可以認為是篡改者為了隱藏篡改幀出現的連續性而故意插入的真實幀。

5)再次驗證準確性。由上述步驟可以得到的start、ending分別為算法檢測出的篡改起始與結束位置。由于視頻的每幀圖像會受光照強度等外在因素影響,即使在靜止畫面的真實視頻中,兩幀圖像的幀間相似度也隨著幀距的加大而降低。而篡改序列的每幀均是復制粘貼得來的,因此兩幀圖像幀間相似度不受距離遠近影響,也就是篡改序列的首尾幀的幀間相似度應該仍然大于設定的相似度閾值。

6)輸出結果。若算法檢測結果滿足式(6),則輸出篡改序列start~ending;否則,視頻未經過篡改。

2.2 算法時間復雜度分析

根據算法流程分析可知算法的時間消耗主要在以下步驟:1)提取各幀特征向量;2)計算相鄰幀幀間相似度;3)定位篡改序列位置。假設視頻長度為n幀,視頻分辨率為M×N,圖像分塊大小為b,則子塊數為K=M/b」N/b」,則各主要步驟的時間復雜度分別為:提取各幀特征向量的最大時間復雜度為O(Kn),計算相鄰幀幀間相似度的最大時間復雜度為O(n),定位篡改序列位置的最大時間復雜度為O(n)。

3 實驗分析

為了驗證本文算法的有效性,實驗視頻采用Surrey University Library for Forensic Analysis (SULFA)[13]視頻庫以及自己拍攝的視頻,拍攝設備型號為SONY CX700和Canon IXUS 220HS拍攝,分辨率為1920×1080、720×576和320×240三種,視頻編輯篡改使用軟件為Adobe Premiere Pro CS4。實驗所用計算機配置Intel Core i53470 CPU 3.20GHz、4GB內存、Windows 7系統,利用MatlabR2012b實現算法。

3.1 閾值設定

3.1.1 相似度閾值

由于單幀連續多次復制粘貼篡改模式是以幀為單位的篡改,篡改位置相鄰幀的幀間相似度會異常高于真實視頻幀,所以本文實驗采用整個視頻的幀間相似度均值作為閾值。假設視頻長度為n幀,BC=[b1,b2,…,bi,…,bn-1],i∈[1,n-1],其中bi表示第i與第i+1幀圖像的相似度,則閾值為矩陣BC的均值,即Tsimilar=mean(BC)。相似度高于均值的幀是可疑幀,將可能屬于篡改的視頻幀初步篩選出。這種將待測視頻的相鄰幀幀間相似度均值作為閾值的方法的好處在于,使閾值的設定具有自適應性,與具體視頻內容沒有關系。雖然含有運動對象的視頻相鄰幀幀間相似度較低,無運動對象的視頻或運動緩慢的視頻,相鄰幀的幀間相似度較高,但單幀連續多次復制粘貼篡改位置處的幀間相似度仍然高于均值。

為了相似度閾值設定的有效性,實驗隨機選取SULFA視頻庫5組視頻進行單幀連續多次復制粘貼篡改。由于經過壓縮的視頻會直接影響幀間相似度,閾值的選擇更加有說服力,因此實驗將篡改后視頻用不同壓縮比壓縮后,分別計算篡改后視頻的相鄰幀幀間相似度均值,以及視頻篡改位置相鄰幀間相似度均值,結果如表1所示,其中壓縮比指壓縮后的視頻數據量與壓縮前數據量之比。從表1的數據分析可以發現篡改位置的相鄰幀間相似度基本高于實驗設定的均值閾值,說明閾值設定方法有效,這種以視頻相鄰幀幀間相似度均值作為閾值的方法可以將篡改幀篩選出。

3.1.2 長度閾值Tlength

一般情況下,視頻的幀率通常是20~30frame/s,單幀復制粘貼篡改模式要達到良好的視覺效果,需要至少15次以上的連續粘貼操作。為了排除視頻中原本幀間相似度非常高的真實幀對檢測算法的干擾,設定長度閾值Tlength=15,也就是篡改序列長度的限制,說明當可疑幀連續出現的次數計數結果大于15時,認為視頻經過單幀連續多次復制粘貼篡改。實驗結果表明,本文算法對不同幀率的視頻都有很好的檢測效果。

3.2 實驗結果及分析

如圖4為視頻單幀連續多次復制粘貼篡改的一個示例,來源于自己拍攝的視頻。其中,圖4(a)是一個真實原始視頻的5幀圖像,實驗復制了原始視頻中還未出現小車的一幀圖像,將第568~621幀圖像替換,使得小車行駛的痕跡被抹掉,最后并以壓縮比20%對篡改后視頻進行壓縮。圖4(b)顯示的是篡改后的對應幀圖像。

本文算法采用量化DCT系數方法來提取每幀圖像的特征向量,并提取每個圖像分塊8×8大小的系數特征,該方法能很好地表征圖像信息,并且大大縮減了特征向量提取的時間,有利于提高算法檢測效率。算法采用巴氏系數衡量幀間相似度,相似度高于均值的幀圖像為可疑幀。圖5(a)為圖4原始視頻幀間相似度圖,圖5(b)為篡改后幀間相似度圖,其中縱坐標軸右側刻度上圓圈位置處表示均值。從篡改前后幀間相似度的波動趨勢分析可以看出,原始視頻幀間相似度在均值上下波動,并且上下波動的幀號間隔非常小,對于篡改視頻,在其篡改位置的相鄰幀間相似度明顯高于均值,而且這些幀是連續的。因此本文將相似度值高于均值的兩個相鄰幀判定為可疑幀,并根據可疑幀連續出現的次數來進一步判斷視頻的真實性,次數高于15,則認為該視頻序列是經過單幀連續多次復制粘貼篡改的。

由于單幀連續多次復制粘貼篡改會得到靜止畫面的視頻序列,因此無運動對象的原始視頻對算法的干擾性比較強,實驗采用的視頻包括有運動目標和無運動目標兩種。為了分析篡改時粘貼插入位置與原始幀距離遠近的影響,分別在距離原始幀近處插入、遠處插入、左右側均插入,以及多處插入篡改,不同篡改位置分析算法的準確性,檢測結果如表2所示。對無運動對象的視頻與有運動對象的視頻分別進行單幀連續多次復制粘貼篡改,檢測結果如表3所示?,F實生活中,視頻通常要進行壓縮處理,來減少對存儲空間的需求,為了檢驗算法對壓縮視頻是否有效,進一步對不同壓縮比的篡改視頻進行檢測,檢測結果如表4所示。

實驗將本文算法與文獻[10]中算法進行比較,比較結果如表5所示。本文算法的準確率和召回率都比文獻[10]高。文獻[10]算法首先將視頻分為重疊的子序列,根據結構相似性理論度量幀間相似度,這種方法會將復制粘貼后的篡改幀誤認為是存在復制粘貼關系的互相匹配的原始幀和篡改幀,因此文獻[10]的召回率低,同時在計算相鄰幀結構相似度時受靜止畫面因素影響,正確率比較低。實驗結果表明,連續多幀的視頻子序列復制粘貼篡改檢測算法是不適用于單幀模式的篡改,本文算法不受原始視頻中的靜止畫面影響、不受原始幀與篡改幀距離影響,以及不受壓縮比影響,能準確檢測出視頻中是否存在單幀復制粘貼篡改序列,并且能有效定位篡改序列位置,算法的檢測速度非???。

4 結語

本文的創新點在于首次針對性地提出了一種視頻單幀連續多次復制粘貼篡改的檢測算法,采用量化DCT系數的方法提取視頻幀圖像特征向量,通過計算兩相鄰幀圖像特征向量的巴氏系數作為視頻幀的幀間相似度,通過閾值設定來檢測視頻中的可疑幀;接著根據可疑幀連續出現的次數判斷視頻是否經過單幀復制粘貼篡改,定位篡改序列位置;最后檢驗篡改序列首尾幀幀間相似度是否滿足閾值條件,進一步確認篡改位置。實驗結果表明,本文算法的檢測速度很快,這對視頻應用非常有利,并且對于不同視頻場景下或經過壓縮的視頻都能準確檢測出視頻是否經過單幀多次復制粘貼篡改,以及定位篡改序列位置。然而算法也存在一定的局限性,與大多數視頻篡改檢測算法的弊端相同,算法的適用性較弱,只能針對特定的篡改方式進行檢測,多種篡改方式并存的檢測方法將是以后工作的重點之處。

參考文獻:

[1]陳威兵, 楊高波, 陳日超, 等. 數字視頻真實性和來源的被動取證[J].通信學報, 2011,32(6): 177-183. (CHEN W B, YANG G B, CHEN R C, et al. Digital video passive forensics for its authenticity and source[J].Journal on Communications, 2011,32(6): 177-182.)

[2]周琳娜, 王東明. 數字圖像取證技術[M]. 北京:北京郵電大學出版社, 2008: 1-2. (ZHOU L N, WANG D M. Digital Image Forensics[M]. Beijing: Beijing University of Posts and Telecommunications Press, 2008: 1-2.)

[3]WANG W, FARID H. Exposing digital forgeries in video by detecting double quantization[C]// Proceedings of the 11th ACM Workshop on Multimedia and Security. New York: ACM, 2009: 39-48.

[4]ZHANG J, SU Y, ZHANG M. Exposing digital video forgery by ghost shadow artifact[C]// Proceedings of the 1st ACM Workshop on Multimedia in Forensics. New York: ACM, 2009: 49-54.

[5]DELP E, MEMON N, WU M. Digital forensics[J]. IEEE Signal Processing Magazine, 2009, 26(2): 14-15.

[6]MILANI S, FONTANI M, BESTAGINI P, et al. An overview on video forensics [J]. APSIPA Transactions on Signal and Information Processing, 2012, 1(1): 1-18.

[7]DONG Q, YANG G, ZHU N. A MCEA based passive forensics scheme for detecting framebased video tampering[J]. Digital Investigation, 2012, 9(2):151-159.

[8]WANG W, FARID H. Exposing digital forgeries in video by detecting duplication[C]// Proceedings of the 9th ACM Workshop on Multimedia and Security. New York: ACM, 2007: 35-42.

[9]LIN GS, CHANG JF. Detection of frame duplication forgery in videos based on spatial and temporal analysis [J]. International Journal of Pattern Recognition and Artificial Intelligence, 2012, 26(7): 21250017.

[10]LI F, HUANG T. Video copymove forgery detection and localization based on structural similarity[C]// Proceedings of the 3rd International Conference on Multimedia Technology. Berlin: Springer, 2014: 63-76.

[11]ZHAO J, GUO J. Passive forensics for copymove image forgery using a method based on DCT and SVD [J]. Forensic Science International, 2013, 233(1): 158-166.

[12]CHOI E, LEE C. Feature extraction based on the Bhattacharyya distance[J]. Pattern Recognition, 2003, 36(8): 1703-1709.

[13]QADIR G, YAHAYA S, HO A T. Surrey University Library for Forensic Analysis (SULFA) of video content[C]// Proceedings of the 2012 IET Conference on Image Processing. London: IET Press, 2012: 1-6.

猜你喜歡
特征向量閾值均值
高中數學特征值和特征向量解題策略
非均勻光照下文本圖像分割算法研究
特斯拉發布新功能 停電期間也可充電
均值—方差分析及CAPM模型的運用
均值—方差分析及CAPM模型的運用
三個高階微分方程的解法研究
利用迭代軟閾值方法抑制恒時演化類核磁共振實驗中的采樣截斷偽峰
均值不等式的小應用
氨基酸序列特征向量提取方法的探討
兩種改進的局部閾值分割算法
91香蕉高清国产线观看免费-97夜夜澡人人爽人人喊a-99久久久无码国产精品9-国产亚洲日韩欧美综合