美國國防高級研究計劃局(DARPA)網站3月16日報道,DARPA計劃啟動“終身學習機器”(LifelongLearningMachines,L2M)項目,旨在發展下一代機器學習技術,并以其為基礎推動未來人工智能(AI)發展。
項目背景
當前,人工智能在無人駕駛、機器人等民用和商業領域的應用日益廣泛,在國防領域亦是如此,例如人工智能在網絡安全和動態后勤規劃等方面的應用。人工智能以機器學習技術為核心,并依賴于精巧的編程和龐大的數據支撐。但真實世界充滿了偶然性,編程者無法預知所有可能出現的元素或面對的情景,而當這些機器學習系統遇到程序和數據庫中并未包含的特殊情形時就會不知所措。如果想擴展機器學習系統在該新環境下的能力,必須停止其服務并利用額外的數據對其進行再訓練,但這種做法依賴于人類的介入且效率較低。與此不同,生物系統能夠實現自主訓練,從過往經歷中不斷汲取經驗,即使面對全新的環境也能根據積累的知識做出適應性調整。正因為如此,即使現階段最先進的人工智能系統與具備自適應能力的生物智能相比依舊相差甚遠,這也是DARPA開展L2M項目的初衷。
項目概況
L2M項目旨在發展類似于生物智能的具備自主持續學習能力的機器學習技術。L2M項目為期四年,重點關注兩個技術領域。第一個技術領域:開發可以持續從過往經驗中學習,并將所學知識應用于新情況的機器學習機制,不斷擴展自身能力并提高可靠性。以無人駕駛應用為例,這種新技術可使無人駕駛汽車能夠從行駛過程中遇到的交通事故、視覺盲點等情形中學習相關經驗,從而在遇到從未面對的新路況時能夠應用學習到的經驗有效應對,使無人駕駛車輛更加安全可靠。與此同時,DARPA還計劃發展可監控機器學習系統行為的技術,對其可自適應調整的范圍進行限制,并在必要時對其實施干預。這一領域的研究涵蓋了網絡理論、算法、軟件以及計算機體系結構。另一個領域是關于生物智能的學習機制,重點關注生物如何學習并獲得自適應能力,同時研究這種生物學習的原理及技術是否能夠應用于機器學習系統以及如何應用的問題。
兩點認識
DARPA將以L2M項目為基礎推動第三次AI技術浪潮。DARPA認為AI技術的發展已歷經第一次和第二次浪潮,即將迎來第三次浪潮。第一次AI技術浪潮以“手工知識”為特征,典型范例如Windows操作系統、智能手機應用程序、交通信號燈使用的程序等。第二次AI技術浪潮以“統計學習”為特征,典型范例如人工神經網絡系統,并在無人駕駛汽車等領域取得進展。雖然上述AI技術對明確的問題有較強的推理和判斷能力,但不具備學習能力,處理不確定問題的能力也較弱。第三次AI技術浪潮將以“適應環境”為特征,AI能夠理解環境并發現邏輯規則,從而進行自我訓練并建立自身的決策流程。由此可知,AI的持續自主學習能力將是第三次AI技術浪潮的核心動力,L2M項目的目標恰與第三次AI浪潮“適應環境”的特征相契合。通過研發新一代機器學習技術,使其具備能夠從環境中不斷學習并總結出一般性知識的能力,L2M項目將為第三次AI技術浪潮打下堅實的技術基礎。
DARPA在推動AI技術發展的同時,強調對于AI技術的規范和限制。人類對于人工智能技術安全性的思考由來已久,早在1950年出版的美國著名科幻小說家艾薩克·阿西莫夫撰寫的《我,機器人》小說中就提出了著名的“機器人三大定律”:第一定律,機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手旁觀;第二定律,機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外;第三定律,機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。此后,“三定律”在科幻題材的小說、電影中大放光彩,并不斷激發出對于人工智能安全性的新思考。按照DARPA關于AI技術的發展思考,在第三次AI浪潮中,AI將具備自主學習能力,其終極形式必將會是具備自主意識的AI系統,到那時人類與人工智能之間的關系必須由普適、可靠的準則所定義,特別是在國防領域,否則極有可能出現科幻電影中描述的人機大戰。DARPA在L2M項目中明確強調,在提升AI技術水平的同時,確保其在預先制定的相關準則下進行工作,防止其出現越界行為。無論是否受到上述觀點的影響,DARPA此時強調對于AI技術安全性的管控可能都將是AI技術發展過程中的必然選擇和重要課題,也許在不久的將來科幻小說中的“機器人三定律”就可能成為未來人工智能的安全準則。
更多資訊請關注工業機器人頻道