傳動網 > 新聞頻道 > 行業資訊 > 資訊詳情

對于特斯拉、Facebook等公司來說,AI的缺陷已越來越難以忽視

時間:2021-11-02

來源:

導語:人工智能在無人駕駛、社交媒體、醫療保健等關鍵應用上未達預期

  人工智能未達預期的原因在于技術營銷的夸大宣傳以及人工智能科學家對數據的忽視

  但大量資金仍源源不斷地涌入人工智能領域

  Facebook聯合創始人馬克·扎克伯格與特斯拉的首席執行官埃隆·馬斯克,這兩個人有什么共同點?兩人都在跟一些大問題纏斗,而這些問題至少部分是源于對人工智能系統的信任,但后者辜負了這份信任。扎克伯格要應付沒能阻止有害內容傳播的算法;馬斯克的軟件的駕駛技術還沒能達到他經常許下的承諾。

  從他們遇到的問題我們可以吸取什么教訓?人工智能還沒做好準備去迎接黃金時段。而且,也很難知道什么時候能準備好。公司應該考慮把注意力放在形成高質量的數據——而且是大量這樣的數據上——同時雇用人工來完成人工智能還沒做好準備的工作。

  深度學習 AI 系統原來是想大致模擬人腦,現在這種系統已經可以發現腫瘤、駕駛汽車還有寫作,在實驗室環境下,它們展現出驚人的結果。但問題就在這兒。在不可預測的現實世界里面應用這種技術時,人工智能有時候會達不到預期。當有人吹噓它可以用于醫療保健等高風險應用時,這種情況令人擔憂。

  就像最近一名舉報人披露的內部文件所揭示的那樣,社交媒體的風險也很高,社交媒體的內容可能會影響到選舉,并造成心理健康障礙。但 Facebook 對人工智能的信心在自家的網站上表露得很明顯,網站往往先突出介紹自己的機器學習算法,然后才會提到自己還有一支龐大的人工審核隊伍。2018 年的時候,扎克伯格還曾告訴美國國會,人工智能工具可以“大規模”地識別有害內容。在發現裸體以及恐怖主義相關內容方面,這些工具做得不錯,但仍然難以阻止錯誤信息的傳播。(2)

  問題在于人類的語言總是在變。反疫苗活動人士用類似輸入“va((ine”)之類的技巧來避免被發現,而私人槍支銷售商則在 Facebook Marketplace 上發布空箱子的圖片,然后附上“PM me”(私信我)的文字。旨在阻止違規內容的系統被騙了,更糟糕的是,AI 還經常推薦這類內容給用戶。

  這也就難怪聘請來給 Facebook 的算法提供支持的約 15000 名內容審核員工作會過量。去年,紐約大學斯特恩商學院曾進行過一項研究。研究建議,如果 AI 不能勝任內容審核這項任務的話,Facebook 應該將這些員工增加一倍至 30000 人,這樣才能作為帖子的監控。 《數學殺傷性武器》(Weapons of Math Destruction)的作者凱茜·奧尼爾(Cathy O’Neil)十分直截了當,她說 Facebook 的人工智能“沒用”。扎克伯格也告訴國會議員,由于語言的微妙,人工智能很難對帖子做出正確的審核。

  馬斯克對人工智能的過度承諾更是已經變成傳奇。 2019 年,他告訴特斯拉的投資者說,自己“很有信心”,很快就會有 100 萬輛 Model 3 無人駕駛機器人出租車上路。什么時候:2020 年。現在2021年就快過去了,特斯拉客戶目前得到的只有支付 10000 美元購買特殊軟件的特權。什么特殊軟件?有朝一日(又叫做天知道什么時候)可提供全自動駕駛功能的特殊軟件。直到那時,汽車才可以自行停車、變道,駛上高速公路,只是偶爾才會出現嚴重錯誤。馬斯克最近在一條推文中也承認,通用自動駕駛技術是“一個難題”。

  更令人驚訝的是:人工智能在醫療保健方面也一直表現不佳,本來這個領域對于AI技術而言是最有希望的。今年早些時候,《自然》雜志上的一項研究分析了數十種旨在檢測 X 射線以及 CT 掃描當中存在的 COVID-19 疾病跡象的機器學習模型。研究發現,由于各種缺陷,沒有一種模型可用于臨床環境。上個月發表在《英國醫學雜志》(British Medical Journal)上的另一項研究發現,94% 的人工智能系統在掃描乳腺癌征兆的準確度上低于放射科醫生個體的分析。 該研究的負責人,華威大學人口健康教授泰勒-菲利普斯( Sian Taylor-Phillips )說:“大量炒作說[放射學人工智能掃描] 時代即將到來,但從某種程度來說先到的是炒作而并不是結果。”

  政府顧問將根據她的研究結果來決定此類人工智能系統是不是利大于弊,并因此可供使用。就這方面而言,危害似乎并不明顯。畢竟,用于發現乳腺癌的人工智能系統在設計上過于謹慎,導致漏報腫瘤征兆的可能性要高于誤報。但是,即便乳腺癌篩查的召回率(美國為 9%,英國為 4%)僅增加很小的百分比,也意味著成千上萬的女性因誤報而變得更加焦慮。泰勒-菲利普斯說:“也就是說,就為了實施新技術,我們接受了對被篩查女性的傷害。”

  出現錯誤的似乎不僅限于少數研究。 AI 市場情報公司 Cognilytica 的執行合伙人凱思林·沃爾克( Kathleen Walch )說:“幾年前,大家對 AI 把守放射科的第一道關抱有很大希望和炒作。但現在我們看到,人工智能在檢測這些異常方面并沒有提供任何有用的幫助。”

  盡管如此,這些危險信號都沒能阻止大量資金不斷涌入人工智能領域。根據追蹤私人資本市場的 PitchBook Data的數據,在經過一段時間的穩步攀升之后,全球對人工智能初創企業的風險資本投資在過去一年出現了飆升。根據彭博社對文字記錄的分析,在過去十年的時間里,企業財報電話會議提到“人工智能”的次數一直在穩步上升。

  可是既然有這么多的投資,為什么人工智能還沒有達到我們希望的狀態?部分問題在于技術營銷的夸大宣傳。但人工智能科學家本身也可能難辭其咎。

  這些系統要取決于兩樣東西:能用的模型,以及用于訓練該模型的基礎數據。為了開發出可用的人工智能,程序員需要把絕大部分的時間(可能約占 90%)都花在數據上——收集數據、對數據進行分類,然后清洗數據。這項工作既枯燥又艱難。可以說,目前的機器學習社區也忽視了這一點,因為科學家們更加重視 AI 架構的復雜性,或者模型的復雜程度。

  其中的一個結果是:根據麻省理工學院科學家最近的一項研究,用于開發人工智能系統(比如計算機視覺和語言處理)的那些最流行的數據集里面到處都是錯誤。熱衷搭建模型的文化實際上阻礙了人工智能。

  但也出現了一些令人鼓舞的變化跡象。 谷歌的科學家最近在一篇會議論文中抱怨了模型與數據的問題,并提出了各種辦法來制定更多的激勵措施以解決這個問題。

  企業也正在將注意力從“人工智能即服務”供應商身上轉移。盡管這些供應商承諾自己的服務開箱即用,就像魔術一樣。 PitchBook 的高級分析師 布蘭登·布爾克(Brendan Burke )表示,現在他們征兆把更多的資金投入到數據就緒軟件上。他表示,Palantir與C3.ai等純粹的 AI 公司“取得的成果不算出色”,而 Databricks等數據科學公司“正在取得更高的估值以及出色的成果。”

  人工智能偶爾會在低風險的場景下搞砸,比如推薦電影不靠譜,或用你的臉解鎖不了智能手機。但在醫療保健和社交媒體內容等領域,AI仍然需要更多的訓練,更好的數據。企業不應該現在就打算讓 AI 發揮作用,而應該用數據和人員奠定基礎,讓AI在不遠的將來(希望如此)發揮作用。


中傳動網版權與免責聲明:

凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.hysjfh.com)獨家所有。如需轉載請與0755-82949061聯系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯網或業內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

如涉及作品內容、版權等問題,請在作品發表之日起一周內與本網聯系,否則視為放棄相關權利。

關注伺服與運動控制公眾號獲取更多資訊

關注直驅與傳動公眾號獲取更多資訊

關注中國傳動網公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅系統
  • 工業電源
  • 電力電子
  • 工業互聯
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯接
  • 工業機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0