3nm工藝+高帶寬內存
據內部消息,該芯片采用臺積電3納米制程,配備與英偉達同級的HBM(高帶寬內存),脈動陣列架構使其在訓練大模型時效率提升40%以上。這意味著未來訓練GPT-5的時間或縮短一半。
技術細節:脈動陣列通過數據流水線化處理,可最大限度減少內存訪問延遲,而HBM則讓芯片在單位時間內吞吐量暴增,這正是大模型訓練的命門所在。
“谷歌大腦”團隊操刀
該芯片的設計團隊由前谷歌TPU核心成員Richard Ho領銜,過去半年團隊規模翻倍至40人,并獲博通技術支持。
這種“硅谷頂尖工程師+芯片巨頭”的組合,讓OpenAI僅用18個月就走完其他公司5年的研發路。
該芯片單次流片成本約數千萬美元,但行業人士估算,包含軟件生態構建的總投入或達5億美元。這相當于微軟2025年AI預算的0.6%,不過卻可能撬動千億美元市場。
英偉達"算力霸權"正被瓦解
OpenAI自研芯片最直接的目標,是擺脫對英偉達80%的供應依賴。若2026年量產成功,其數據中心采購成本將直降30%,這對每年燒錢數十億美元訓練模型的OpenAI堪稱救命稻草。
微軟、Meta等巨頭自研芯片屢屢受挫,OpenAI若成功將刺激更多企業加入混戰,英偉達“一家獨大”格局或終結。
就在OpenAI亮劍之際,中國AI公司DeepSeek此前憑借算法優化,用1/10算力跑出同等性能模型,轟動全球。
芯片行業和市場陷入深思:未來究竟需要更多芯片,還是更聰明的算法?
有分析師指出,算法優化可能讓全球AI芯片需求減少20%,但OpenAI的選擇表明,頂級玩家仍在押注“硬件軍備競賽”。
“芯片-模型”協同進化論
OpenAI工程師透露,該芯片將支持模型參數規模突破百萬億級,且計劃每12個月迭代一次。這意味著未來的GPT-6可能直接運行在專為其定制的“大腦”上,形成“芯片設計→模型升級→芯片再設計”的正向循環。
芯片量產時間點(2026年)恰與拜登政府“國家AI基礎設施計劃”重合。值得玩味的是,OpenAI已參與特朗普提出的5000億“星際之門”計劃,這場跨越黨派的AI霸權爭奪,正在芯片制造環節悄然升級。
不過當OpenAI用芯片重新定義AI生產力時,很多人早已通過DeepSeek嗅到機會——用AI工具批量生成爆文、視頻腳本、商業運營、代碼生成,解放生產力,甚至開始變現。