機器學習研究者們已經開始探索在AI中誘發“選擇性失憶”的方法,其目標是在不影響模型性能的前提下,從機器學習中刪除特定人員或點的敏感數據。
目前,機器學習被視作最具智能特征的研究領域,但科學家提出了新的問題:機器會學習,但它會遺忘嗎?
機器學習研究者們已經開始探索在AI中誘發“選擇性失憶”的方法,其目標是在不影響模型性能的前提下,從機器學習中刪除特定人員或點的敏感數據。
如果未來能夠實現,那么這一概念將幫助人們更好地控制數據。
機器學習的“遺忘”,對于有需求的用戶,也就是那些對他們在網上分享的內容感到后悔的人來說,其實很直觀。
但從技術層面來講,消除特定數據點影響的傳統方法,是“從零開始”重建系統,這是一項代價可能相當高昂的工作,令企業幾乎難以承受。
具體來說,某些地區的用戶如果他們對披露的內容改變了主意,其實是有權要求公司刪除他們的數據的。但徹底抹除這件事很難實現,因為一旦經過訓練,機器學習系統就不會輕易改變,甚至就連訓練者們自己,也不清楚系統是如何掌握這些能力的,因為他們并不能完全理解自己調試或訓練出的算法。
人們對人工智能系統侵犯個人隱私的擔憂日益嚴重。如何讓AI學會“選擇性失憶”,從而可以在無需“從零開始”對系統進行再培訓的情況下刪除敏感數據,成為時下研究的熱點問題。
賓夕法尼亞大學機器學習教授亞倫·羅斯表示,他們目前進行的研究就是希望能找到一些“中間地帶”。或許在不久的將來,有望找出一條既可以控制數據也可以保護由數據產生的價值的發展道路。