傳動網 > 新聞頻道 > 行業資訊 > 資訊詳情

“深度學習”瓶頸未解,人工智能離我們還有距離

時間:2017-04-13

來源:網絡轉載

導語:在最近在灣區召開的一次人工智能大會上,Google的人工智能研究人員FrancoisChollet強調了深度學習的重要性,它比一般的數據統計和機器學習方法都要更高級,是一款非常強大的模式辨別工具。

本文讓你了解當下火爆的人工智能領域還存在著多少技術瓶頸。其實,我們離真正的人工智能之間的距離還很遠。

人工智能現在已經火的不能再火了。各種新聞機構都在不斷地放出猛料,有的說現在IBM的Waston人工智能已經能夠徹底取代勞動者了;還有的說現在的算法在醫療領域已經能夠打敗醫生了。每一天,都有新的人工智能初創公司出現,每一家都聲稱自己在利用機器學習,徹底顛覆你個人的生活,商業性質的活動。

還有一些大家平日里司空見慣的產品,比如榨汁機,無線路由器,一夜之間也都換上了全新的廣告語:“我們都是由人工智能技術所支持的!”智能桌子不僅能知道你平日里工作時所需要的合適高度,甚至還能幫你點午餐!

但事實是什么呢?那些報道新聞的記者,其實從來沒有親自去介入到一個神經網絡的訓練過程當中,而新聞源頭的初創公司以及營銷團隊也有自己的盤算:都是想擴大自己的名聲,獲取到資本和人才的關注,哪怕它們壓根沒有解決一個現實中存在著的問題。

也正是在這樣的喧囂氣氛中,難怪在人工智能領域會出現那么多一知半解,其實大家都搞不清楚什么是AI能做的,什么是AI無法辦到的。

深度學習確實是一個讓人心馳神往的技術,這無可辯駁。

其實,神經網絡這個概念自上個世紀60年代就已經出現了,只是因為最近在大數據、計算機性能上面出現的飛躍,使得它真正變得有用起來,由此也衍生出來一門叫做“深度學習”的專業,旨在將復雜的神經網絡架構應用在數據建模上,最終帶來前所未有的準確性。

現在的技術開發成果也確實讓人印象深刻。計算機現在可以辨識圖片和視頻里的東西都是什么,可以將語音轉化成為文字,其效率已經超過了人力范疇。Google也將GoogleTranslate服務中添加了神經網絡,現在的機器學習在翻譯水平上已經逐步逼近人工翻譯。

現實中的一些應用也讓人大開眼界,就比如說計算機可以預測農田作物產量,其準確性比美國農業部還高;機器還能更加精準的診斷癌癥,其準確度也比從醫多年的老醫師還要高。

DARPA(美國國防部高級研究計劃局)的一名負責人JohnLauchbury形容如今人工智能領域內存在著三股浪潮:

1、知識庫,或者是類似于IBM所開發的“深藍”和Waston專家系統。

2、數據學習,其中包括了機器學習和深度學習。

3、情境適應,其中涉及通過利用少量數據,在現實生活中中構建出一個可靠的,解釋型的模型,正如人類能完成的程度一樣

就第二波浪潮而言,目前深度學習算法的研究工作進展的不錯,用Launchbury的話來說就是因為“流形假設”的出現。

但是深度學習也是存在著一些棘手問題的

在最近在灣區召開的一次人工智能大會上,Google的人工智能研究人員FrancoisChollet強調了深度學習的重要性,它比一般的數據統計和機器學習方法都要更高級,是一款非常強大的模式辨別工具。但是,不可否認它是存在著嚴重局限性的,至少目前來說是這樣。

深度學習的成果是建立在極其苛刻的前提條件之上

不管是“監督學習”(supervisedperception),亦或者是“強化學習”(reinforcementlearning),它們都需要大量的數據進行支撐,而且在提前計劃上面表現的非常差,只能做某些最簡單直接的模式辨認工作。

相比之下,人就能夠從極少數的例子上學到有價值的信息,并且善于在時間跨度很長的計劃,在針對某個情境上有能力自己建造一個抽象模型,并利用這樣的模型來做站在最高處的歸納總結。

事實上,隨便在街邊上走著的一個路人所能做到的最為稀松平常的事,對于深度學習算法來說都是難如登天。還是舉個例子好了:現在比如說我們要讓機器來學會如何在路上走的時候避免被車撞到。

如果你是采用的“監督學習路徑”,那么你需要從汽車駕駛的情境中提取海量的數據,而且還要以明確標示出來的“動作標簽”進行分類挑揀,比如“停止”、“站住”等等。再接下來,你還需要訓練一個神經網絡,使得它能夠從眼下的情景和所與之相對應的行動之間構建因果聯系;

如果你是采用的“強化學習路徑”,那么你應該給算法一個目標,讓它能夠獨立地判斷當下最優解(也就是最理想的行動)是什么,電腦在不同的情境之下,為了實現避免撞車的這個動作,它估計要宕機上幾千次;

Choliet總結道:“你不可能就以今時今日的技術研發成果作為基礎,就能實現某種一般意義上的智能。”

而人則不一樣,你需要告訴他一次:你需要躲避車子走。然后我們的大腦就有能力從少數的例子中提取經驗,有能力在大腦中想象出來被車碾壓后的凄慘場景(在計算機那里被稱之為“建模”),為了避免喪生或者缺胳膊少腿,絕大多數人都能快速地學習到不被車撞到的要領。

雖然現在已經有了比較大的進展,一些神經網絡可以從數據層面,在相當大的樣本數量上給出一個驚人的成果,但是它們如果單獨拿出一個出來,都是不可靠的,所犯的錯誤是人一輩子都不可能犯的,比如說錯把牙刷當作籃筐。

數據質量的不穩定性帶來的是:不可靠、不準確,以及不公平。

而且,你的結果,還得取決于輸入的數據質量如何。神經網絡中如果輸入的數據是不準確的,不完整的,那么結果也會錯的離譜,有些時候不僅造成損失,而且還會很尷尬。就比如說Google圖片錯把非裔美國人當作了猩猩;而微軟曾經試著把一個人工智能放在Twitter上進行學習,幾個小時之后,它就變得充滿惡意,滿口臟話,帶有嚴重種族歧視。

也許推特上的這個例子有些極端,但不可否認,我們輸入的數據本身就存在著某種程度的偏見和歧視,這種帶有主觀性的,潛移默化的觀念或者暗示,有時我們甚至自己都無法察覺。就比如說:word2vec是google推出的做詞嵌入(wordembedding)的開源工具,從GoogleNews里提取了300萬個詞。這組數據傳遞出來的信息包括了“爸爸是醫生,媽媽是護士。”這明顯就帶有性別上的歧視。

這種歧視不僅僅是被原封不動地搬運到了數字世界,而且還會得到放大。如果“醫生”這個詞更多的指向“男人”而非“女人”,那么算法在面對一份公開的醫生職位篩選的時候,它會將男性放在女性前面優先考慮。

除了不準確、不公平,還存在著最大的風險:不安全。

“生成對抗式網絡”(GAN)的發明人IanGoodfellow提醒我們:現在的神經網絡可以很容易被不軌之徒操縱。他們可以以一種人的肉眼無法識別的方式,篡改圖片,讓機器錯誤地辨識這個圖片。

左邊的是熊貓(機器的確認度是57.7%),加上中間的這層圖片之后,機器的確認度上升到了99.3%,認為圖片上出現的是長臂猿。

不要小看這樣的風險,這種惡意篡改人工智能系統的做法,會帶來極大的危害,尤其是被篡改的圖片和最初的圖片在我們看來完全是一回事。比如說無人自駕駛汽車就會受到威脅。、

以上就是深度學習所存在著的種種瓶頸,目前它要發揮作用所需要的前置條件太過苛刻,輸入的數據對其最終的結果有著決定性的影響,另外,它存在著很多漏洞,安全性也無法得到保證。如果我們要駛向理想中的人工智能未來,這些瓶頸還有待于人們的進一步的突破與挑戰。

更多資訊請關注工業機器人頻道

中傳動網版權與免責聲明:

凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.hysjfh.com)獨家所有。如需轉載請與0755-82949061聯系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯網或業內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發表之日起一周內與本網聯系,否則視為放棄相關權利。

關注伺服與運動控制公眾號獲取更多資訊

關注直驅與傳動公眾號獲取更多資訊

關注中國傳動網公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅系統
  • 工業電源
  • 電力電子
  • 工業互聯
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯接
  • 工業機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0