據外媒報道,英國劍橋大學物理學家霍金日前在接受媒體采訪時,再次強調人類建立有效機制,防止人工智能(AI)對人類的威脅進一步上升。
據報道,霍金在接受采訪時表示,包括AI在內的新科技若持續發展,可能會通過核戰爭或生物戰爭摧毀人類;人類則需要利用邏輯和理性去控制未來可能出現的威脅。
霍金還就應對AI的威脅建議稱,人類可以組成某種形式的聯合政府來防范AI可能帶來的威脅。
數年前霍金已經表示,發展全面的人工智能可能導致人類的毀滅。
霍金說,人工智能的發展可能幫助人類消除疾病,消除貧困,阻止氣候變化,但是也可能產生人們不愿意看到的種種后果,包括產生自主武器,造成經濟災難,以及發展出同人類發生沖突時擁有自己意愿的機器。
“簡言之,強大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情,但我們還不知道答案。”
更多資訊請關注工業機器人頻道