熟女人妻水多爽中文字幕,国产精品鲁鲁鲁,隔壁的少妇2做爰韩国电影,亚洲最大中文字幕无码网站

技術頻道

娓娓工業
您現在的位置: 中國傳動網 > 技術頻道 > 技術百科 > 深度思考:現在的AI模型真的在進行推理嗎?

深度思考:現在的AI模型真的在進行推理嗎?

時間:2025-02-28 16:34:42來源:21ic電子網

導語:?最近,OpenAI、DeepSeek、谷歌、Anthropic都推出新模型,它們都宣稱模型已經具備真正的推理能力,也就是人類解決問題時運用的思維方式,但問題在于:AI大模型所說的推理真的和人一樣嗎?

  現在的模型可以將復雜問題分解成小問題,然后逐步解決小問題再給出回應,業界將這個過程稱為“思維鏈推理”。這些模型有時表現讓人驚嘆,可以解決邏輯謎題和數學難題,能夠快速寫出完美代碼,但有時面對極為簡單的問題卻顯得蠢笨。

  于是乎,反對者認為所謂的“思維鏈推理”根本不算推理,而支持者卻認為是推理,雖然不如人類靈活,但它正在朝著真正的推理前進。

  反對者:只是用啟發式原則猜測答案

  科學家一直在研究人腦是如何運行的,目前大家一致認為大腦存在多種不同的推理類型。

  推理有演繹推理,即從一個一般性的陳述出發,得出一個具體的結論。還有歸納推理,利用具體的觀察結果來做出更廣泛的概括。除此還有類比推理、因果推理、常識推理。

  與人腦推理相比,目前的AI推理還很狹隘。

  圣塔菲研究所(SFI,Santa Fe Institute,SFI)教授梅蘭妮·米切爾(Melanie Mitchell)曾在一篇論文中寫道:“從有限的數學和經驗中找到一條規則或者一套模型,將它應用于新的未曾見過的情境中,在現實世界,我們非常看重這樣的推理。即使是非常小的孩子,也能從幾個例子中學習并發現抽象規則。”

  孩子能做到,現在的AI能嗎?許多人持懷疑態度。

  愛丁堡大學技術哲學家肖恩·瓦洛爾(Shannon Vallor)在談到OpenAI o1時表示:“AI所做的只是一種元擬態行為(meta-mimicry)!

  什么意思?就是說以前的ChatGPT舊模型會模仿其訓練數據中人類所寫的陳述內容,新的o1可以模仿人類得出陳述內容的過程,雖然o1輸出的結果會讓人覺得它在推理,但這不是真正意義上的推理。

  舉個例子,問ChatGPT一個問題:“1個人帶1匹狼、1只羊、1捆草過河。如果人在場,狼不敢吃羊、羊不敢吃草,可是小河邊的船每次只能讓人帶一種東西過河。那么,如何用最少的渡河次數把所有東西都帶到河對岸呢?”

  雖然o1相比舊版有所改進,但架構并未有太大變動,它在回答問題時出現失誤。瓦洛爾認為:“在回答問題失敗時,我們會看到一個事實,即模型并沒有進行真正的推理!

  隨后推出的o3讓米切爾感到驚訝,但她更讓他吃驚的是o3在解決問題時消耗的算力如此巨大。由于OpenAI內部運作并不透明,人們無從知曉大模型用這些算力做了什么。如果OpenAI不能做到公開透明,便無法確定模型真的將大問題分解成若干步驟,然后給出一個更完美的整體答案。

  去年紐約大學在一篇名為《Let’s Think Dot by Dot》的論文中質疑過AI推理,研究人員發現,把思維鏈(Chain-of-Thought,CoT)推理中的具體步驟,替換成毫無意義的“...”(點號),產生的推理結果也大差不差。

  米切爾認為:“AI更像是一個啟發式原則構成的集合,不是推理模型。”啟發式原則能幫你猜出問題的正確答案,但它并非真正通過思考獲得答案。

  又例如,研究人員曾開發一個視覺模型,用來分析皮膚癌。初看時,模型似乎能判斷皮膚上的斑點是否為惡性病變,但事實證明,在訓練數據中惡性斑點照片旁邊往往有了標尺信息,模型只是因為標尺信息的存在將斑點判定為惡性病變,這是一種啟發式思考。

  由此可以懷疑,看起來AI似乎在用“推理”解決問題,但實際上只是在利用“記憶信息”進行啟發式探索。

  支持者:不是純粹推理但也不是背誦

  Redwood Research致力于降低人工智能風險,該公司首席科學家瑞安·格林布拉特(Ryan Greenblatt)認為,當前的AI明顯是在進行某種形式的推理。

  格林布拉特說:“機器的處理方式不像人類那樣具有普遍性,它們更多依賴記憶和知識,而非人類那樣依靠推理和判斷,但機器仍在進行處理!

  既然AI模型可以解答超出樣本范圍的難題,而且表現出色,就可以說它們是在進行某種推理。

  “過河問題”是一個很經典的問題,在訓練數據中,AI應該已經學習過很多次。但當用戶提出問題時,AI并沒有給出正確答案,它可能知道答案,只是進行了復雜的不必要的“思考”,人有時也會犯這種錯誤。

  格林布拉特舉例說,如果你花一個月時間學習色彩理論,從互補色到不同色調的心理影響,再到文藝復興時期某些顏料的歷史意義。學完之后參加測試,試題問:“這幅風景畫中為什么要把天空畫成藍色?”你可能會被誤導,寫出極為復雜但沒有必要的答案,比如你可能會說藍色代表神圣的天空,說畫是清晨完成的,象征著新生……實際上答案很簡單:因為天空就是藍色的。

  Open Philanthropy分析師阿杰亞·科特拉(Ajeya Cotra)認為,有些活動被人類稱為推理,在這一范疇內,AI將會表現得越來越好。人類說AI只是在進行“元擬態”活動,重點不在于“元擬態”,而在于“只是”。人類的意思可能是它不會對世界產生重大影響,我們離超級人工智能還有很遠,這種斷定值得懷疑。

  再比如,在一堂大學物理課上,面對問題時學生的表現參差不齊。有人作弊,直接給出答案。有人是天才,無需思考公式的內容,憑借深刻的理解與直覺給出答案。大多學生憑借記憶記住公式,努力思考用哪個公式解答問題。

  科特拉認為,現在的AI和大多學生一樣,它會將記憶內容與一些推理內容結合起來。AI可能不太聰明,但它很勤奮,能記住無數方程式。它將強大的記憶與少量理解結合,找出針對某個問題的方程式組合,然后給出答案。

  乍一看,AI和天才學生一樣極為聰明,但細細分析就會發現答案中的漏洞,盡管如此,并不意味著AI沒有推理。

  換句話說,這些模型既不是純粹地進行推理,也不是純粹地進行背誦。

  科特拉說:“我認為這是處于兩者之間的一種狀態。人們對此感到困惑,因為他們想要將其歸入某一類別,要么說是單純的記憶,要么說是真正意義上的深入推理。但實際上,推理的深度是有一定范圍的!

  結語:鋸齒狀智能

  研究人員用“鋸齒狀智能”這一術語能描述今天的AI,就是說它既能出色解決一些數學問題,碰到簡單問題時又會變得愚蠢。

  人類總是喜歡將AI的智能與人類智能類比,或者我們應該換個角度看待,將人工智能視為“與眾不同”的智能,不要糾結于“比人類更聰明”或者“比人類更愚笨”。

  人工智能正在進化,某一天也許變得無比強大,能夠囊括人類所有的智能,甚至還有余力,這種變革值得期待。

標簽: 人工智能

點贊

分享到:

上一篇:什么是具身智能?具身智能和...

下一篇:邊緣計算與云AI:為企業AI工...

中國傳動網版權與免責聲明:凡本網注明[來源:中國傳動網]的所有文字、圖片、音視和視頻文件,版權均為中國傳動網(www.hysjfh.com)獨家所有。如需轉載請與0755-82949061聯系。任何媒體、網站或個人轉載使用時須注明來源“中國傳動網”,違反者本網將追究其法律責任。

本網轉載并注明其他來源的稿件,均來自互聯網或業內投稿人士,版權屬于原版權人。轉載請保留稿件來源及作者,禁止擅自篡改,違者自負版權法律責任。

網站簡介|會員服務|聯系方式|幫助信息|版權信息|網站地圖|友情鏈接|法律支持|意見反饋|sitemap

傳動網-工業自動化與智能制造的全媒體“互聯網+”創新服務平臺

網站客服服務咨詢采購咨詢媒體合作

Chuandong.com Copyright ?2005 - 2025 ,All Rights Reserved 深圳市奧美大唐廣告有限公司 版權所有
粵ICP備 14004826號 | 營業執照證書 | 不良信息舉報中心 | 粵公網安備 44030402000946號

主站蜘蛛池模板: 泰州市| 工布江达县| 长葛市| 仁怀市| 比如县| 太原市| 鱼台县| 涞水县| 孟连| 醴陵市| 桃园县| 安达市| 五大连池市| 梅河口市| 临泉县| 旬阳县| 西宁市| 突泉县| 河南省| 英山县| 雷州市| 桐庐县| 乌审旗| 临西县| 鄂托克前旗| 临武县| 宁武县| 科技| 玉屏| 孟连| 喀喇沁旗| 昌都县| 班玛县| 中宁县| 额敏县| 习水县| 阿坝县| 长顺县| 额尔古纳市| 革吉县| 上犹县|