訂閱
糾錯
加入自媒體

全球最大芯片要上市了!先后拿下OpenAI、亞馬遜,Cerebras賭對了什么?

2026-04-22 16:45
烏鴉智能說
關注

你能想象嗎?

一塊AI芯片,做到接近一臺iPad的大小。

這不是概念設計,而是一家正在沖刺上市的AI芯片公司,給出的答案就在不久前,Cerebras披露了招股書,這家公司開始正式走向臺前。

從數據看,它的增長幾乎是“跳躍式”的。

2022年營收只有2460萬美元,到2025年已經達到5.10億美元,三年增長超過19倍。

更關鍵的是,盈利也在同步發生變化。2024年還虧損4.82億美元,到2025年已經轉正,實現2.38億美元凈利潤。

今年以來,Cerebras更是連續拿下兩個關鍵客戶。一邊是OpenAI,簽下超過百億美元級別的算力協議;另一邊是亞馬遜,開始在云側引入其芯片做推理加速。

這意味著,它開始逐漸進入主流算力體系。

資本市場的預期也在抬高。據外媒報道,Cerebras計劃募資超過30億美元,對應估值至少350億美元。

所以問題來了,一家把芯片做到“iPad大小”的公司,到底在解決什么問題?

今天,我們就來聊聊Cerebras。

/ 01 / GPU,不是AI計算的答案

先來說說Cerebras為什么會存在。很多人可能不知道,過去40年,計算行業始終在印證一個鐵律:

新的計算需求,終將催生新的計算架構。

PC時代是 x86,移動時代是 ARM,圖形時代是 GPU。每當新的計算范式出現,行業最初總是試圖用舊架構“湊合”,但當技術演進到一定階段,就會不可避免地發現——舊架構已達到極限,必須重構底層系統。

現在,這件事正在AI 身上重演。

AI 的計算方式,和過去完全不同。簡單來說,過去的計算,大多是“局部、獨立”的,比如圖形渲染,每個像素可以各算各的,互不影響。

但AI 模型不一樣,它本質上是一個高度耦合的計算網絡。在這個網絡中,數據、參數和計算過程之間需要進行極其頻繁的信息交換。

這就導致了一個根本性的轉變:AI本質上是一個“通信密集型”的計算問題,而不僅僅是一個單純的“算力”問題。

這也是GPU 開始遇到瓶頸的根本原因。

GPU 的優勢在于并行計算,但前提是“任務彼此獨立”。而在 AI 里,每一步計算都依賴前一步結果,大量時間花在“等數據”。

這種架構上的不匹配,在AI模型的訓練和推理階段暴露無遺。

在訓練階段,單卡不夠強,只能把模型拆開,分布到上千張GPU上。但一旦拆開,就必須頻繁通信,效率迅速下降,同時系統復雜度和成本飆升。

簡單說就是,單卡不夠,多卡低效。

到了推理階段,問題就更加直觀了。

模型在生成每一個詞(Token)時,都需要完整地運行一遍整個模型。但由于模型體積過于龐大,無法完整加載到芯片內部的緩存中,計算單元只能不斷地從外部內存中搬運數據。

問題在于,這個“搬數據”的過程,遠比“算數據”慢。目前,高端GPU普遍采用了HBM(高帶寬內存)技術,但HBM的特點是“容量大而速度相對較慢”。

Cerebras創始人Andrew Feldman曾提供過一組直觀的數據:以一個相對較小的70億參數(7B)模型為例,假設每個權重占用16位(16-bit),那么生成一個詞,就需要從內存中搬運約140GB的數據。

而為了生成下一個詞,系統必須再次搬運這140GB的數據,如此周而復始。這種計算模式對內存帶寬的消耗是極其驚人的。

結果就是,在某些場景下,GPU的實際利用率甚至可能跌至5%以下。這種高成本、高延遲的破架構,怎么可能撐得起未來那些要求毫秒級響應的實時AI應用?

/ 02 / 一塊接近iPad大小的芯片

對于這些問題,Cerebras給出的解法,不僅很直接,也很極端:

把芯片做到足夠大,大到可以把“算力、內存、帶寬”都放進同一塊硅片里。

就這樣,Cererbas打造了全球首創且唯一的商業化晶圓級處理器——晶圓級引擎(WSE),并聲稱其第三代AI芯片WSE-3是“史上大批量推向市場的最大、最快AI芯片”。

與GPU相比,WSE-3的最大特點就是,大。

WSE-3的面積是4.6萬平方毫米,接近一塊iPad屏幕;而H100只有814平方毫米,兩者相差整整57倍。

用Feldman自己的比喻來說:

“想象一個玻璃杯就是內存,里面裝的可樂是數據,而你的嘴巴代表算力。你能喝到可樂的速度,完全取決于吸管的粗細。英偉達GPU的根本問題,就在于這根吸管太細了。而我們的破局之道是——直接把吸管扔掉,端起杯子往嘴里倒。

這瘋狂的尺寸,直接砸出了三個顛覆性的結果:

第一,計算被暴力“集中”了。

WSE-3喪心病狂地塞進了90萬個計算核心,是H100的52倍!更恐怖的是,這90萬個核心全在一塊硅片上,緊緊挨著,壓根不需要跨芯片通信。

第二,是內存被“拉近”了。

傳統GPU依賴HBM(本質是DRAM),容量大,但訪問慢;SRAM速度極快,但容量小。

Cerebras的做法,是直接把芯片做大到可以放下足夠多的SRAM——WSE-3集成了44GB片上SRAM,而H100只有約0.05GB,相差880倍。

這意味著,大模型的參數可以直接“貼臉”放在計算單元旁邊,再也不用來回倒騰了。

第三,也是最關鍵的,是帶寬問題被“消掉”了。

WSE-3的片上內存帶寬達到21 PB/s,而H100大約是0.003 PB/s,相差7000倍;片上互連帶寬也高出3700倍以上。

在GPU體系里,大量時間花在“搬數據”上。而在WSE里,數據基本不需要離開芯片。

總結起來,其實Cerebras就做了一件事:讓數據不再流動,讓計算圍繞數據發生。

/ 04 / 誰在為這個瘋狂的故事買單?

技術再牛,賣不出去也是白搭。Cerebras面臨的現實拷問是:誰來掏錢?

答案是,中東土豪。

2022到2025年,公司收入從2460萬美元一路增長到5.1億美元,三年翻了超過20倍;凈利潤也在2025年首次轉正,達到2.38億美元。

但這錢,幾乎全是中東老鐵砸的。

2024年,阿布扎比的G42貢獻了85%的營收;2025年,阿聯酋人工智能大學(MBZUAI)和G42聯手包攬了87%的收入。

這家公司賺的錢,幾乎都來自中東。

換句話說,Cerebras的命脈,全捏在兩個中東大客戶手里。 這種走鋼絲般的營收結構,自然成了IPO時投資人最忌憚的定時炸彈。

為了自救,Cerebras開始瘋狂拉客。真正的轉折點,來自OpenAI。

2026年1月,Cerebras拿下了史詩級大單:2026到2028年,為OpenAI提供高達750兆瓦的算力,總金額超過100億美元!

不僅如此,OpenAI還倒貼10億美元(約合人民幣68億元),幫Cerebras建數據中心。

這背后的水很深。OpenAI的掌門人Sam Altman,本身就是Cerebras的早期投資人,而且早在2017年,OpenAI就已經盯上了Cerebras的技術。

巨頭入場,風向徹底變了。

2026年3月,AWS(亞馬遜云)也坐不住了,成為首家吃螃蟹的超大規模云廠商。

AWS的玩法很雞賊:在推理任務里,用自家的Trainium芯片搞定“理解輸入”,然后把“生成輸出”這種臟活累活扔給Cerebras的CS-3芯片。兩者高速互聯,雙劍合璧。

據說,這套組合拳的速度,是現有方案的5倍以上!

/ 05/ 決戰英偉達,護城河到底在哪?

只要在這個圈子里混,就繞不開那個終極靈魂拷問:

你憑什么干掉英偉達的護城河?

所有整個AI算力行業都相信一個故事:CUDA生態,就是英偉達堅不可摧的護城河。

黃仁勛在GTC 2026上也是這么放話的:“CUDA搞了20年,早就長在每一朵云、每一臺電腦里了。我們的護城河,是整個軟件生態!”

但在挑戰者Feldman眼里,CUDA的神話,被嚴重夸大了。

原因是,CUDA在訓練側確實有價值,但在推理側,幾乎不存在鎖定。

現在的AI開發,早就被PyTorch統領了,應用層和底層硬件已經脫鉤。只要編譯器給力,模型在不同硬件之間橫跳,根本不是難事。

“從NVIDIA切到Cerebras,再切到別人家,這件事情在推理端并不難。”

相比虛無縹緲的CUDA生態,Feldman看得很透:英偉達真正的護城河,是它那令人絕望的市場份額。

比起CUDA建立的生態,Feldman認為英偉達真正的護城河在市場份額。

市場份額本身,就是最無解的護城河。

他舉了Intel的例子,即便連續犯錯,依然能長期占據70%+的市場份額,AMD花了十年,也只拿到20%多。

這意味著,一旦成為默認選項,后來者即使更好,也需要極長時間才能撬動。

放在今天的英偉達身上,這個優勢更明顯:所有人都在它的體系里學習AI、構建AI,它就是采購的起點,F在的英偉達就是那個“默認起點”,所有人都在它的體系里學AI、做AI。

但Feldman并不絕望。他預測,五年后,英偉達接近100%的壟斷份額,可能會跌到50%–60%。

理由很簡單:訓練市場依然是英偉達的天下,但真正龐大的推理市場正在井噴,而這個市場,對新架構極其渴望!

同時,Feldman也相信另一個暴論:

即使在未來,芯片公司的價值,也將徹底碾壓模型公司!

他的邏輯來自一個很經典的比喻,短期市場是“投票機”,長期是“稱重機”。

模型公司的優勢周期很短,可能只有幾個月,領先與被超越在不斷切換,很難沉淀長期壁壘。

而芯片不同,它的壁壘在物理層,制造、工藝、供應鏈、工程能力,這些東西一旦建立,很難被快速復制。

過去幾十年,真正長期偉大的公司,大多來自這一層。

圖片

       原文標題 : 全球最大芯片要上市了!先后拿下OpenAI、亞馬遜,Cerebras賭對了什么?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號