據Singularityhub報道,谷歌已經開發出能夠自創加密算法的機器學習系統,這是人工智能(AI)在網絡安全領域取得的最新成功。但是當我們的數字安全日益依賴智能機器時,將會產生什么樣的影響?
谷歌位于加州的AI子公司GoogleBrain通過神經網絡之間的互相攻擊,實現了最新壯舉。他們設計出兩套分別被稱為鮑勃(Bob)和愛麗絲(Alice)的神經網絡系統,它們的任務就是確保通訊信息不被第三套神經系統伊芙(Eve)破解。沒人告訴它們如何加密信息,但鮑勃和愛麗絲被給與共享的安全密匙,而伊芙沒有。
在大多數測試中,鮑勃與愛麗絲能夠迅速找到安全的通訊方式,使得伊芙無法破譯密碼。有意思的是,這些機器都使用了不同尋常的方法,這些方法通常在人類開發的加密系統中十分罕見。從可能性方面看,這些方法遠比人類設計的最好的方法還要復雜得多。但是由于神經網絡以不透明的方式解決問題,因此很難找出它們是如何操作的。
對于人類來說,破譯計算機生成的加密非常容易。但是這也很難保證系統的安全性,并可能限制其實際應用范疇。此外,伊芙的表現似乎也可證明人的類懷疑,即神經系統在破譯加密信息方面不太擅長。
但是研究人員表示,在理解通信元數據方面和計算機網絡流量分析方面,神經網絡是相當有效的技術。這就是許多人認為機器學習可被應用于網絡安全領域的原因,因為現代AI在發現模式方面非常擅長,它們可以處理遠比人類多得多的數據。
隨著網絡安全專家缺口不斷增大,這將是個巨大市場。在今年夏季舉行的黑帽黑客大會上,安全公司SparkCognition公布了其殺毒軟件DeepArmor,它可以利用AI技術不斷了解新的惡意軟件行為,并識別出發生變異以嘗試繞過安全系統的病毒。
當前的機器學習依然傾向于發現誤報,并且無法應對許多由人類黑客發起的更微妙攻擊。為此,許多方法專注于AI與人類并肩工作。荷蘭安全廠商F-Secure與麻省理工學院下屬計算機科學與人工智能實驗室都開發出機器學習網絡分流系統,它們可以過濾掉通過網絡的大部分可疑信息,大幅削減需要人類專家處理的潛在威脅數量。
IBM希望更進一步,探索其超級計算機沃特森的自然語言處理能力。沃特森可以從人類網絡安全專家發布的大量威脅報告、研究論文以及博客文章中學習。他們希望這能幫助他們于今年晚些時候提供云服務,可以有效地充當人類的專家級助理。
全自動系統也在取得進展。8月份,美國國防部下屬DARPA舉行網絡挑戰大賽,這是首次機器之間進行的黑客攻擊對決。這些聊天機器人使用各種各樣的AI方案,去自動發現軟件漏洞,要么修復漏洞,要么利用漏洞,這一切都沒有人類幫助。
盡管它們還遠不夠完美,有的機器甚至在比賽多數時間都處于休眠狀態,其它機器甚至偶爾破壞了自己試圖保護的系統。獲勝的聊天機器人Mayhem在DEFCON黑客大會上與人類對決,盡管其最終落敗,但結果依然令人印象深刻。許多觀察家對聊天機器人展示出來的復雜水平和超人般的操作速度感到驚訝。
這是一場軍備競賽,黑客們也在利用這些新技術。路易斯維爾大學AI與網絡安全副教授羅曼·揚波爾斯基(RomanYampolskiy)說,他已經遇到過這樣的程序,可以利用AI自動發現系統的安全漏洞或預測密碼。他說:“我們正看到非常聰明的電腦病毒出現,它們能夠修改無人機代碼、改變它們的行為以及向目標中滲透。”
AI的另一個優勢是模擬人類的能力。網絡安全公司Darktrace技術主管戴夫·帕爾默(DavePalmer)表示,他認為不久的將來,智能惡意軟件就可以利用你的電子郵件來了解你的通訊方式,并創造出來自你的被感染的信息。《金融時報》曾報道稱,已經有人在使用假鼠標動作或不同的打字速度模擬人類登陸,試圖繞過安全系統訪問特定網站。
在DARPA的網絡挑戰大賽結束后,電子前沿基金會(EFF)警告稱,自動化處理漏洞的過程可能產生意想不到的嚴重后果,研究人員需要在行為準則方面達成一致,以應對這些威脅。如果這些系統擺脫開發者的控制,沒人能夠保證自動化防御系統能夠對抗它們。并非所有的計算機都能輕易修補漏洞,特別是那些不經常訪問或不容易進行更新的物聯網設備。
研究人員需要考慮這些問題:防御工具如何能夠輕易被改造成進攻工具?什么樣的系統最容易成為攻擊目標?他們到底有多脆弱?如果這些工具失去控制,最糟糕的后果會如何?
知名專欄作家瓦奧萊特·布盧(VioletBlue)說,EFF的擔憂為時過早,他預測真正的AI黑客可能30年后才會出現,過度監管只會減慢AI技術的進步。正如Mayhem團隊所說:“如果你只集中于防御,你會發現自己總是處于追趕之中,可能永遠無法超過攻擊者。”
但是隨著網絡安全日益成為對立機器人之間的對決,我們應該盡早開始謹慎地思考。畢竟,隨著技術進步,機器人操作方式變得越來越高深莫測,我們可能弄不清它們到底誰好誰壞!
更多資訊請關注工業機器人頻道