傳動網 > 新聞頻道 > 行業資訊 > 資訊詳情

人工智能立法動議率先在歐盟提出

時間:2016-11-28

來源:網絡轉載

導語:當前飛速發展的人工智能技術在為人類創造巨大生產力的同時,也給現有的生產方式帶來一系列潛在的沖突和挑戰。

社會治理的核心是調和利益沖突,社會治理的基本方式是法治。當前飛速發展的人工智能技術在為人類創造巨大生產力的同時,也給現有的生產方式帶來一系列潛在的沖突和挑戰。有科學家甚至宣稱人工智能的發展將威脅人類生存,終結時代。那么,我們應當如何看待人工智能的法律地位,其行為引起的法律責任又當由誰來承擔,如何承擔?對此,歐盟正在探討一項人工智能法案,無論其通過與否,已然掀起了人類立法的新篇章。

人工智能或將在歐盟獲得首個法律身份

據路透社報道,歐盟委員會法律事務委員會于2016年5月31日提交一項動議,要求歐盟委員會把正在不斷增長的最先進的自動化機器“工人”的身份定位為“電子人(electronicpersons)”,并賦予這些機器人依法享有著作權、勞動權等“特定的權利與義務”。該動議也建議,為智能自動化機器人設立一個登記冊,以便為這些機器人開設涵蓋法律責任(包括依法繳稅、享有現金交易權、領取養老金等)的資金賬戶。如果此項法律動議通過,歐盟將成為首個通過立法賦予人工智能法律身份的地區。

法律作為上層建筑的一部分,由一定的社會經濟基礎所決定,是對社會現實需求的回應。歐盟對此次人工智能的立法動議絕非是一時興起。據歐盟2015年的一項調查報告顯示,截止到2012年歐盟成員國每七個家庭中就有至少一戶在使用機器人,工廠中使用的自動化機器人更是不計其數。實際上,早在2014年自動化與機電一體化國際貿易博覽會開幕式上,歐盟委員會副主席、數字和電信政策專員內莉·克勒斯就宣布,歐盟委員會將啟動“火花”(SPARC)計劃:到2020年,將投入28億歐元用于研發民用機器人。歐盟委員會稱,這是目前全球最大的民用機器人研發計劃,涉及機器人在制造業、農業、醫療、交通運輸、安全等各領域的應用。

人工智能應用研究計劃的優勢是顯而易見的。特別是在歐洲日益嚴重的老齡化社會,廣泛使用高級機器人可以大幅降低人力成本、改善工作條件、提高工業水平和生產效能,從而大大提升經濟競爭力。歐洲機器人協會秘書長尤維·赫斯博士在媒體采訪時表示,目前全球機器人年均工業產值為220億歐元,預計到2020年可達500億歐元至620億歐元之間。高級機器人的工業產值將會超出“我們的想象”,其應用可以大力提高歐洲的工業競爭力,促進農業和服務業的快速發展。歐盟委員會還認為,機器人的潛力遠不止于生產制造,其還可以協助醫院護士,檢修危險的核電站以及從事乏味的農業作業,自動汽車和無人機等都屬于機器人。

經濟推動下龐大機器人群體的產生,必然會帶來一系列的主體認知和社會責任問題。由此看來,歐盟率先提出人工智能立法動議就不足為奇了。而人工智能的發展不局限于歐洲,事實上,其他科技發達國家和地區也正在制定和實施人工智能發展計劃。如日本制定了機器人技術長期發展戰略,將機器人產業作為“新產業發展戰略”中七大重點扶持的產業之一,僅在類人機器人領域,就計劃10年共投資3.5億美元;韓國制定了“智能機器人基本計劃”,2012年10月發布了“機器人未來戰略展望2022”,將政策焦點放在了擴大韓國機器人產業并支持國內機器人企業進軍海外市場等方面。

對人工智能立法的擔憂多于期待

法律是維護社會秩序的一道屏障,而且往往是最后一道屏障。當現有法律不足以調和新事物發展對現有秩序所帶來的沖突的時候,我們就必須對其作出相應的調整和完善。然而,不同于以往的新立法,多數民眾甚至是法學家對人工智能立法的擔憂要遠遠多于期待。因為人工智能不但是人類社會發展的一塊新領域,而且將會挑戰傳統法律準則,甚至這些挑戰可能是顛覆性的。

首先,人工智能“工人”群體正在形成:一方面對現有勞動者的權利帶來沖擊,另一方面部分群體對人工智能勞動性權利要求的呼聲愈發強烈。這些機器人真的可以取代人類“工人”嗎?今年3月,著名智能機械制造廠商特斯拉工廠被媒體曝光。整個工廠只有150個機器人完成從沖壓生產線、車身中心、烤漆中心與組裝中心這四大制造環節,車間中很少見到人類的影子。根據歐盟委員會2015年6月的一份調查報告顯示:70%的被調查者認為機器人奪走了人們的就業機會。而這些機械“工人”可以無休止地為工廠主提供勞動力嗎?答案是否定的。賦予人工智能“工人”勞動權利,成為此次歐盟人工智能立法動議的主要內容。

其次,人工智能正在超越人類思維,直接威脅“自然人”這一基本的法律關系主體地位。就在今年3月9日的圍棋大戰中,谷歌圍棋機器人“阿爾法狗”(AlphaGO)經過三個小時打敗了韓國選手李世石,震驚了整個人類社會。令人感到震驚的不止是勝敗本身,還在于這個圍棋機器人被制造者賦予了新的能力——“學習”。它會首先進行快速判斷,進而深度模仿類似人類行為的做法,而后不斷總結經驗,并作為自己行為的評估依據。這意味著機器人已經不再局限于傳統計算機超級計算、資料檢索和模擬判斷的能力,而是擁有近似于人類思維模式的自我學習、自我總結能力,甚至是“創造力”。人工智能已由“執行指令”走向了“智能”時代。

最后,人工智能行為帶來的法律責任將難以解決。人工智能的安全隱患時有發生。今年5月,在當前最熱門的“無人駕駛”技術探索中,曝出一輛處于自動駕駛模式(Autopilot)的特斯拉ModelS發生車禍,與一輛卡車相撞,導致司機JoshuaBrown當場死亡。這看似一場簡單的車禍,究竟是駕駛人的不當操作,還是開發者的技術漏洞,抑或是生產者的安全責任?甚至可能是人工智能“故意”為之?事件背后的法律責任在現有的科學技術和法律框架下恐怕難以快速解決。

總而言之,隨著人工智能學習能力的完善,其自主性將越來越高,制造者對其控制力將不斷弱化,此類客體存在或將超出“產品”的概念,超過《產品質量法》的范疇,甚至打破《民法》《刑法》等基本法律的規范。對這種可能威脅到人類社會秩序甚至生存權的人造產品,我們將如何應對呢?

對人工智能立法的未來展望

任何新事物的產生都有其賴以生存的社會經濟條件,在其社會經濟條件未消失之前,這些事物就必然存在。人工智能作為人類文明發展的新發明、新事物,有其存在的客觀基礎,并不會隨人的主觀意識的改變而隨意改變。而事物是一分為二的,新事物的產生發展在帶來巨大利益的同時,必然帶來一定的安全威脅。不可否認的是,此前有關人工智能的一些大膽的預言正在變成現實,但擔憂機器人將終結人類還為時尚早。我們應當思考的不是消滅客觀危險,而是該如何面對這些潛在的威脅和挑戰。通過制定一定的規則、法律來預防規避風險,引導事物健康發展。

一方面,我們應當直面人工智能發展的法律障礙。人工智能已經不是簡單的機械工具,這對以前由法人承擔責任的規定是一個挑戰。萬一人工智能出現了超越原設計方案的“越軌行為”,該由其制造者、管理者還是使用者,甚至是人工智能自身來承擔責任呢?因此,我們首先應當解決的是人工智能制造者、管理者以及使用者的責任問題。如何保證人工智能的生產質量,降低其生產的產品風險;如何將人工智能更好地融入工作場所,保證其依照原定計劃發揮職能;如何限制人工職能的使用形式和內容,規避其使用風險,是當前我們在探索人工智能技術與擴大人工智能應用過程中所必須思考的。

另一方面,我們應當從法律上正視人工智能這一新型群體的存在。所謂法律上的認識,就是審視人工智能自身存在的權利和義務。既然人工智能能夠作為一個群體存在,有自身特定的社會角色,甚至能夠創造性的“獨立思考”(這也是人類正在積極探索賦予人工智能的能力),那么,我們就應當去思考人工智能究竟有沒有法律意義上的“主觀能動性”。此前,有消息稱,日本也正在準備立法保障人工智能的著作權。日本法學家認為,人工智能畢竟作為一個創作個體,其著作權如果不能得到保障,將可能會助長抄襲之風的盛行。此次歐盟在對人工智能立法提案的過程中,更是提出要賦予人工智能勞動權,以及現金交易權、領取養老金的權利等等。就當前人工智能技術而言,對此已有些“操之過急”,但未來的趨勢已從近來偶發的“事故”中初露端倪。如果將來的答案是肯定的,也就意味著人工智能將擁有極大的自由和權利,也就難免不會走向犯罪,給人類造成傷害。我們就要思考另外一類問題,如人工智能故意盜竊、詐騙,甚至是傷害到人類,我們的法律該如何調整?

法律具有滯后性,但對法律問題的思考應當具備前瞻性思維。隨著人工智能的不斷發展,人類也許會進一步看清人工智能的發展軌跡,最終制定出有利于人類和人工智能健康發展的法律體系。

更多資訊請關注工業機器人頻道

中傳動網版權與免責聲明:

凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.hysjfh.com)獨家所有。如需轉載請與0755-82949061聯系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯網或業內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發表之日起一周內與本網聯系,否則視為放棄相關權利。

關注伺服與運動控制公眾號獲取更多資訊

關注直驅與傳動公眾號獲取更多資訊

關注中國傳動網公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅系統
  • 工業電源
  • 電力電子
  • 工業互聯
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯接
  • 工業機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0