規定人工智能應用紅線
歐盟的人工智能法案禁止了一系列不可接受的應用,涵蓋了多個領域。其中包括禁止使用人工智能驅動的社會評分系統,以及任何基于生物識別技術用于猜測個人種族、政治傾向或性取向的工具。此外,禁止了在學校和工作場所中使用人工智能解讀個人情緒的行為,以及某些類型的預測個人犯罪可能性的自動分析。
除了禁止不可接受的應用之外,法案還為被視為高風險的人工智能應用設置了嚴格的護欄。這些應用包括教育、招聘、政府服務等領域的人工智能系統,對它們施加了一系列透明度和其他義務,以確保公民的權利和利益得到充分保護。
對公司的約束與要求
該法案不僅針對應用層面,還對生產人工智能模型的公司施加了新的披露要求。OpenAI等生產強大、復雜且廣泛使用的人工智能模型的公司將受到新規定的約束,必須遵守新的透明度要求,并標記所有人工智能生成的深度偽造品。
法案還設立了監管沙箱和現實世界測試,旨在支持創新和中小企業在遵守規則的前提下開發和培訓創新人工智能。這一舉措有助于保障技術創新的發展,并為企業在規則生效之前做好準備提供了機會。
法案背景與下一步計劃
該法案將于近兩年內生效,突顯了歐盟政策制定者對人工智能技術發展的關注和對公民權利的保護。法案的通過是對歐盟未來會議公民提案的回應,旨在增強歐盟在戰略領域的競爭力,確保安全和值得信賴的社會,促進數字創新,并確保人類處于人工智能發展的核心地位。
美國與歐洲的對比
該法案與美國在人工智能立法方面有所差異,盡管美國政府已開始關注人工智能的影響,但至今尚未在人工智能聯邦立法方面取得任何重大進展。歐盟的立法舉措為人工智能的發展設立了明確的界限,并為公民權利提供了強有力的保障,展現了歐盟在人工智能監管方面的領導地位。
歐盟的人工智能法案標志著人工智能監管的新時代的開始,為技術創新與公民權利之間的平衡提供了重要的范本。這一法案的通過將對全球人工智能技術的發展產生深遠影響,為一個更加安全、公正和透明的人工智能時代奠定了基礎。