1940年,享譽全球的科幻小說作家艾薩克.阿西莫夫(IsaacAsimov)構思和醞釀了“機器人三定律”,于1941年5月至10月完成和發表的一系列短篇小說中,把“機器人三定律”公之于眾:*定律.機器人不得傷害人類個體、或者目睹人類個體遭遇危險卻袖手旁觀;第二定律.機器人必須服從人類給予它的命令,除非這一命令與*定律相矛盾;第三定律.不違反*定律和第二定律的前提下,機器人要盡可能的確保自己的生存。基于“機器人三定律”,艾薩克.阿西莫夫希望人類(即“碳文明”)和機器人(即“硅文明”)可以攜手并進、共生共存。
盡管“機器人三定律”堪稱機器人學的金科玉律,可它的局限性也顯而易見,比如*定律中,艾薩克.阿西莫夫強調了“人類個體”、卻忽視了“人類整體”,因此,對于“機器人三定律”的修訂和補充也陸陸續續的提了出來。艾倫人工智能研究所的*執行官埃齊奧尼認為,于“機器人三定律”的基礎上,還要增補“人工智能系統必須明確的表示它不是人類”、“未經允許,人工智能系統不能保留和披露機密信息”等等規則。不過,中國科技大學的陳小平教授說,修訂和補充“機器人三定律”的意義和效用并不大,迫在眉睫的問題不是“原則”、而是“細節”,人類急需完善人工智能和智能機器人相關的倫理細節。
*定律中,“機器人不得傷害人類個體”,那么“傷害”究竟是指什么呢?機器人對待某一人類個體的什么方式才稱得上“傷害”呢?人們如何量化和標準化“傷害”、且準確的認定和排除“傷害”呢?若機器人對某一人類個體并未造成生理層面的損害,但這一人類個體因主觀的厭惡和恐懼而出現了精神層面的問題,這是不是一種“傷害”呢?以上的問題僅僅是九牛一毛而已,還有數之不盡的問題需要細化和深究,更需要人們探討和制定比較具體的規則來“防患于未然”,不能停留在“機器人三定律”的框架中。
美國人工智能倫理領域的知名學者泰格馬克呼吁人們超越艾薩克.阿西莫夫的“機器人三定律”,商討和確立新的人工智能倫理原則,確保人類的利益不受人工智能的損害、且人工智能與人類的發展目標一致。因此,泰格馬克發起了“AI有益運動”,倡導人們把“有益于人類”樹立為核心,圍繞著這一核心而開創一套人工智能倫理體系,已故的物理學家斯蒂芬.霍金和多位*科學家支持“AI有益運動”。泰格馬克一再強調,AI人工智能在“乘數效應”的推動下會變得越來越強大,留給人類試錯的時間和空間越來越小了。
為了呼應泰格馬克,美國機器智能研究院的開創者尤德科夫斯基提出“友善人工智能”的理念,他號召人工智能領域的研發人員和科研機構把“友善”樹立為核心,從人工智能的設計和開發之初,就把“友善”植入智能系統中,這樣的話,“友善”就成了人工智能倫理的基礎和宗旨了。
陳小平教授認為,現階段的人工智能和智能機器人并無重大的隱患和風險,短期之內,只有網絡用戶個人隱私安全和相關技術濫用等等問題急需管控和防范,但從長遠的角度來說,嶄新和完善的人工智能倫理體系必須盡快的確立和落實,絕不能出了嚴重的問題之后再“亡羊補牢”,畢竟一些犯錯的代價是人類無法承受的。
聲明:本文為轉載類文章,如涉及版權問題,請及時聯系我們刪除(QQ: 2737591964),不便之處,敬請諒解!