本發明公開了一種基于深度神經網絡的視頻壓縮方法,步驟如下:收集并整理視頻圖像數據集,構建神經網絡訓練集、測試集和交叉驗證集;建立多層的深度神經網絡;對于幀間預測,利用運動估計算法尋找最佳匹配塊,并計算殘差和幀間預測的均方差;預測完成后將殘差作為新的訓練數據訓練殘差編碼網絡,殘差網絡模型包括幀內殘差和幀間殘差;預測和殘差神經網絡的輸出數據經過量化和無損熵編碼一起作為固定長度碼流的壓縮數據;解碼端通過與編碼端對稱的神經網絡將壓縮數據還原,并重建恢復出壓縮后圖像。本發明的視頻壓縮方法,與傳統H.264視頻編碼方法在大量測試視頻序列上的同等比較中,可以在相同質量上平均節省26%左右的碼率。
聲明:
“基于深度神經網絡的視頻壓縮方法” 該技術專利(論文)所有權利歸屬于技術(論文)所有人。僅供學習研究,如用于商業用途,請聯系該技術所有人。
我是此專利(論文)的發明人(作者)