本發明公開了一種基于深度融合的視頻顯著性檢測方法,本發明方法包括深度特征提取網絡、深度特征融合網絡和顯著性預測網絡。模型的輸入是當前幀圖像和光流圖像。首先,深度特征提取網絡提取多級深度特征,產生深度空間特征和深度時間特征。然后,采用注意力模塊分別強化學習兩個分支中每級產生的深度特征,深度特征融合網絡分級方式融合多級深度特征。將融合得到的深度特征與邊界信息相結合并顯著性預測網絡進行預測,產生當前幀的最終顯著性圖。本發明方法提供的網絡模型可以充分有效地利用空間信息和時間信息來實現對視頻中顯著性目標的預測。
聲明:
“基于深度融合的視頻顯著性檢測方法” 該技術專利(論文)所有權利歸屬于技術(論文)所有人。僅供學習研究,如用于商業用途,請聯系該技術所有人。
我是此專利(論文)的發明人(作者)