傳動網 > 新聞頻道 > 行業資訊 > 資訊詳情

霍金再發警告:人類應建立有效機制防范AI威脅

時間:2017-03-14

來源:網絡轉載

導語:強大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情,但我們還不知道答案。

據外媒報道,英國劍橋大學物理學家霍金日前在接受媒體采訪時,再次強調人類建立有效機制,防止人工智能(AI)對人類的威脅進一步上升。

據報道,霍金在接受采訪時表示,包括AI在內的新科技若持續發展,可能會通過核戰爭或生物戰爭摧毀人類;人類則需要利用邏輯和理性去控制未來可能出現的威脅。

霍金還就應對AI的威脅建議稱,人類可以組成某種形式的聯合政府來防范AI可能帶來的威脅。

數年前霍金已經表示,發展全面的人工智能可能導致人類的毀滅。

霍金說,人工智能的發展可能幫助人類消除疾病,消除貧困,阻止氣候變化,但是也可能產生人們不愿意看到的種種后果,包括產生自主武器,造成經濟災難,以及發展出同人類發生沖突時擁有自己意愿的機器。

“簡言之,強大人工智能的崛起可能是人類遇到的最好的事情,也可能是最壞的事情,但我們還不知道答案。”

更多資訊請關注工業機器人頻道

中傳動網版權與免責聲明:

凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.hysjfh.com)獨家所有。如需轉載請與0755-82949061聯系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯網或業內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發表之日起一周內與本網聯系,否則視為放棄相關權利。

關注伺服與運動控制公眾號獲取更多資訊

關注直驅與傳動公眾號獲取更多資訊

關注中國傳動網公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅系統
  • 工業電源
  • 電力電子
  • 工業互聯
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯接
  • 工業機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0