張云團隊提出基于神經網絡的色度預測方法
文:轉載自《集成技術》2021年第三期
中國科學院深圳先進技術研究院高性能計算技術研究中心張云團隊在智能視頻編碼優化理論與方法方面的研究取得進展。相應成果“Deeplearning based chroma prediction for versatile videocoding(基于神經網絡的色度預測)”2020 年 11月 3 日在線發表于 IEEE Transactions on Circuitsand Systems for Video Technology。
視頻數據爆炸式增長給存儲和傳輸帶來了巨大的壓力和挑戰,這迫切地需要快速、高效的視頻編碼方案。而下一代視頻編碼方法仍是采用憑統計經驗手工設計預測函數的編碼方案,在一定程度上限制了編碼性能的提升。如何使用先進的學習工具在給定帶寬的條件下最大化視頻質量、提高壓縮效率成為了未來智能視頻編碼優化的關鍵問題。該文從計算機視覺和人工智能的角度出發,將視頻編碼中的色度預測問題模型化為計算機視覺中的圖像上色問題,以進一步消除顏色通道之間的冗余?;诰矸e神經網絡的色度預測包含兩個子網絡:亮度下采樣和色度預測。采用線性模型結果作為色度初始化以增強性能,采用量化參數來表征編碼失真消除壓縮噪聲影響。在編碼器設計過程中,為了取得更好的編碼性能,該文利用率失真優化方法從傳統色度預測方法和所提出的方法中選擇代價最小的預測策略。
結果顯示,與現有傳統方法相比,該文方法在 Y、U、V 分量分別可以節省 4.28%、3.34%和 4.63% 的網絡帶寬。
針對現有視頻編碼模塊中的局限性問題,從計算機視覺和人工智能的角度出發,實現了由信號處理領域問題向人工智能領域問題的轉變,以海量視頻/圖像數據為基礎,研究結合神經網絡模型的視頻編碼方法,最終實現智能視頻編碼優化理論與方法的創新,預期成果能應用于下一代視頻編碼標準及視頻壓縮的相關領域。
中傳動網版權與免責聲明:
凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.hysjfh.com)獨家所有。如需轉載請與0755-82949061聯系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。
本網轉載并注明其他來源的稿件,均來自互聯網或業內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。
如涉及作品內容、版權等問題,請在作品發表之日起一周內與本網聯系,否則視為放棄相關權利。

關注伺服與運動控制公眾號獲取更多資訊

關注直驅與傳動公眾號獲取更多資訊

關注中國傳動網公眾號獲取更多資訊
- 運動控制
- 伺服系統
- 機器視覺
- 機械傳動
- 編碼器
- 直驅系統
- 工業電源
- 電力電子
- 工業互聯
- 高壓變頻器
- 中低壓變頻器
- 傳感器
- 人機界面
- PLC
- 電氣聯接
- 工業機器人
- 低壓電器
- 機柜