一、人工智能發展帶來一定安全風險
人工智能技術存在算法黑箱、技術濫用、侵犯隱私等安全問題,隨著人工智能與實體經濟深度融合,這些風險將會進一步疊加放大,給公共安全、道德倫理、社會治理等帶來挑戰。
技術內生風險。深度學習作為運用最為廣泛的人工智能技術,存在“算法黑箱”“不可解釋”等缺點,難以對其實施檢測檢查,一旦算法模型中存在漏洞,其產生的安全風險問題可能對社會安全產生重大威脅。華盛頓大學等高校的研究人員在一篇論文中披露,自動駕駛汽車并不能“真正理解”指示牌上的圖案,而是通過一些特征來進行識別,人們只需要在交通標志上用貼紙進行相應處理,就可以讓系統錯誤地將停車標志識別為限速標志。
技術濫用風險。技術發展是把雙刃劍,隨著人工智能應用日益深入,出現了利用計算機視覺、智能語音等技術實現“換臉”“換音”的情形,不但侵犯個人隱私,還可能被用于實施詐騙,產生嚴重后果。2019 年 3 月,《華爾街日報》報道,有犯罪分子使用深度偽造技術成功模仿了英國某能源公司在德國母公司CEO的聲音,詐騙了220000歐元,造成嚴重的財產損失。
數據隱私風險。人工智能技術訓練需要依靠大量數據,但當前數據的獲取、使用的監督管理尚不完善,存在隱私泄露、數據濫用等風險,同時數據作為重要資產,跨境流動時處理不當還可能對國家安全產生威脅。2020年2月,服務于600多家執法機構及安保公司的美國人臉識別創業公司Clearview AI稱其客戶面部信息數據庫被盜,據報道,Clearview AI從網絡社交媒體上抓取了超過30億張照片,這些數據在采集時并未明確獲得用戶的同意。
二、加大力度防控人工智能安全風險成為各國共識
為應對人工智能潛在安全風險,各國紛紛加強人工智能安全問題的前瞻性研究,加大力度防控人工智能安全風險,制定了一系列治理準則和規范指南。
美國發布規范應用指南,兼顧人工智能安全監管與創新發展。去年以來,美國對人工智能安全的關注度日益提升。一方面,美國白宮于2020年1月發布《人工智能應用規范指南》,提出公眾信任、公平和非歧視、公開與透明、安全等10條人工智能監管原則,從國家層面規范人工智能發展并避免嚴格監管阻礙創新。2020年12月,美國白宮公布特朗普簽署的《在聯邦政府中促進使用可信賴的人工智能》行政令,強調人工智能的使用必須符合合法、安全可靠和具有彈性、負責任和可追溯等原則。另一方面,國防、交通、衛生等人工智能應用場景的安全準則日益完善。2020年2月,國防部采納國防創新委員會建議的負責任、公平、可追溯、可靠和可控管理等5項新人工智能道德原則,為國防部研發、部署和使用人工智能奠定道德基礎。同月,美國白宮和交通部共同發布自動駕駛汽車準則4.0,確立了自動駕駛的三大類十大原則,其中指出優先考慮安全、強調網絡安全、確保隱私和數據安全。2021年1月,衛生部發布《人工智能戰略》,希望在整個部門大規模采用“值得信賴的人工智能”。
歐盟提出人工智能分類監管設想,致力于構建可信人工智能。歐盟一貫執行嚴格的安全隱私和道德治理標準,始終是“可信人工智能”推動者。2018年5月,《通用數據保護條例》生效實施,規范了數據的收集使用,保護公民免受隱私侵犯和數據泄露侵害。2019年4月,歐盟發布《可信人工智能倫理指南》,提出實現人類自主和監督、確保技術穩健和安全、重視隱私和數據治理、建立問責機制等七項可信人工智能發展要求。2020年2月,歐盟委員會發布《人工智能白皮書——通往卓越和信任的歐洲路徑》,提出對用于人才招聘、醫療保健、交通運輸、能源和部分公共部門等高風險應用場景的人工智能產品和服務開展強制性的合格評定,對非高風險的人工智能應用采取自愿合格評定。2020年2,歐盟委員會發布《關于人工智能、物聯網、機器人對安全和責任的影響的報告》,介紹了當前的歐盟產品安全制度,并探討了改進措施。
我國高度重視安全治理工作,積極推動人工智能健康有序發展。習近平總書記明確要求,“要加強人工智能發展的潛在風險研判和防范”“要確保人工智能安全、可靠、可控”“要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德。”2017年7月,國務院印發《新一代人工智能發展規劃》,提出必須高度重視可能帶來的安全風險挑戰。2019年2月,科技部宣布成立新一代人工智能治理專業委員會,同年6月,委員會發布《新一代人工智能治理原則——發展負責任的人工智能》,明確發展與治理的關系,提出和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔責任、開放協作、敏捷治理等八條原則。2020年,數據安全法、個人信息保護法等法律草案相繼公布,為人工智能應用過程中個人信息保護和數據安全構筑了安全防線,我國保障人工智能健康發展的法律法規和倫理道德框架正逐漸完善。
三、多措并舉筑牢人工智能安全防線
我們應清醒認識到人工智能的“雙刃劍”作用,主動應對風險和挑戰,從加強頂層設計、推動算法優化、構建數據規范、開展安全測評等方面規范人工智能技術,推動我國人工智能更快更好發展。
加強頂層設計,構建安全風險管理體系。開展人工智能安全風險相關問題的研究,盡快構建重點突出、具有可操作性的安全風險管控體系,提升風險研判、防范和管控能力,促進人工智能技術健康發展。
推動算法優化,增強人工智能應用可靠性。開展人工智能前沿算法攻關,提升算法的可解釋性。加強數據脫敏、差分隱私等技術的研究,分區、分級、分領域構建安全技術體系,保證人工智能產品符合一定的安全標準與道德規范。
構建數據規范,加大隱私安全保護力度。完善數據合規應用監督和審計強化數據安全技術能力建設,建立統一高效、協同聯動的安全管理體系,做好個人信息保護與數據安全管理。
完善標準體系,開展關鍵技術產品安全風險測評。加快制定人工智能相關技術發展及應用的安全標準,圍繞人臉識別、語音識別等重點領域開展第三方安全風險評估檢測認證,保障人工智能技術安全、產品安全、數據安全和應用安全。