德國政府最近一勞永逸地回答了一個汽車道德問題:無人駕駛汽車應該優先考慮保護人類生命,即使會因此傷害動物和導致財產損失。周三,德國的聯邦交通運輸和數字基礎設施部門表示,它將實施一個由專家小組制定的指引,仔細研究無人駕駛技術。早在6月份,該部門的道德委員會就對今后計算機控制的車輛如何編程和設計,提出了一份報告。
14名科學家和法律專家提出了約20條無人駕駛應遵循的規則。現在,德國運輸監管機構則承諾,要以某種方式強制執行。
先來看看有哪些規則:
保護人類生命始終是首要任務。如果道路情況惡化,并且很可能發生事故,車輛必須拯救人類以免于死亡或受傷,即使這意味著破壞財產或傷害其他生物。
如果發生意外是不可避免的,無人駕駛車不能選擇去救誰,例如,不能犧牲老人救孩子。不應該就年齡,性別,種族,殘疾等做出決定,所有人類生命都是平等的。
應該安裝有一個監視系統,比如黑盒子,以記錄導致事故發生的過程,這樣可知道當時是誰正在駕駛,誰應該負責:方向盤后面的人,還是計算機。司機的身份也應該記錄在案。完全有可能做到精確地按責任定罪可,這也是必要的。
司機應能完全掌握車輛收集的個人信息,這將阻止科技巨頭用定位等數據來定制廣告。
最終,如果無人駕駛車輛發生意外,司機仍然可能承擔責任,除非完全是由系統故障引起的。
毫無疑問,在無人駕駛等系統普及的時候,人與機器之間的相互作用會產生新的道德問題。制定一些指導方針十分必要。今年早些時候,德國通過了一項法律,要求所有無人駕駛車輛的方向盤后都必須有人,以便能夠在意外將發生時接管控制。
德國這種做法給了“在將發生不可避免的事故時,汽車應該如何處理”這樣的問題一個解決方法,而且還具有法律約束力。除了責任分配,這一指引還規定了諸如數據保護(無人駕駛汽車會生成和存儲大量數據,包括人駕駛員的駕駛行為)和保險理賠這樣的問題。
復雜的倫理困局
但現實從來不是非黑即白,如果情況變成,即將有意外發生,在撞向行人和避開后會導致車上乘車受到傷害,這兩種情況該如何選擇呢?這個問題和著名悖論之一“電車難題”一脈相承。
MIT還上線一個名為“道德機器”的網站,網站的功能很簡單,就是以問卷的形式面向大眾收集情境選擇的數據。例如,面對不可避免的事故,選擇撞向人還是動物?選擇罪犯還是普通人?選擇幾位小孩還是多位成年人?這些數以萬計的選擇,將通過后臺被MIT的研究團隊采集,為未來機器智能平臺(如自動駕駛汽車)面臨的倫理問題提供參考。
即使是傷害人類或傷害動物這種的選擇,指引中規定的也與實際情況相差甚遠。比如很多司機在面臨前方突然出現的動物時,往往會選擇急剎或變向,而這種突然的操作很可能給自己帶來危險。
讓無人駕駛汽車做出選擇,前提是它知道各個選擇的后果,但又如何確保它就一定知道呢?
真正的困境往往取決于實際情況,會受不可預測的行為的影響,也很難被明確地標準化,也不能被編程,無法做到倫理上是不容置疑的。
GoogleX實驗室曾在公開采訪中回應過這個問題,當時負責自動駕駛項目的首席工程師AndrewChatham表示,“至少目前Google的所有路測活動中,還沒有遇到一個場景讓我們選擇是拯救一個老人還是嬰兒,但如果這一刻真的到來,那通常只是意味著幾秒前你已經犯下一個更大的錯誤。”
所以,他們的目標是通過優化汽車的剎車決策時間,最大限度阻止這種情境的發生。
沒有任何技術是完美的,事故和討論還將繼續發生。對待可能發生的問題,我們要保持開放和對話。因為無人駕駛是一件重要的造福大眾的事業,只有在確定可能存在的問題之后才能為之確定可能的解決方案。
更多資訊請關注汽車制造頻道