訂閱
糾錯
加入自媒體

Anthropic源碼泄露后續:爆破數千個代碼倉庫,開發者集體怒了

2026-04-03 09:50
雷科技
關注

AI問題AI治?

就在前天,一場堪稱AI行業“核彈級”的烏龍事件,徹底打破了硅谷大模型圈的平靜。明星AI獨角獸Anthropic旗下的核心產品——Claude Code(AI編程助手),竟然因為一次極低級的打包錯誤,將其最核心的51萬行源代碼直接“開源”到了公共網絡上。

不過,這還僅僅是開始,更搞笑的是Anthropic在事發后的“搶救”措施:為了能夠將自己的源代碼從Github上下架,他們啟動了DMCA(數字千年版權法)投訴工具,結果變成了“無差別攻擊”,直接導致數千個合法的、無辜的GitHub開發者倉庫被連坐誤刪。

科技圈常說“技術無罪”,但當頂級的AI公司也開始頻頻翻車時,我們不得不重新思考一個問題:在這個越發依賴AI的時代,我們是否應該將整個AI系統的安全,寄托在少數幾個人或者企業的身上?

不止源代碼泄露!多個BUG被曝光

說實話,在一開始知道Claude Code源代碼泄露后,雷科技(ID:leitech)以為是哪個神通廣大的黑客把Anthropic的服務器攻破了,結果在詳細了解后才發現,這純粹就是一次“低級錯誤”。

根據Anthropic官方的公告,此次泄露事件發生在2026年3月31日。當時,Anthropic在npm代碼庫中推送了Claude-code 的 v2.1.88 版本更新。在此次更新中,Anthropic使用了前段時間收購的Oven公司開發的Bun工具,該工具在運行時錯誤地將一個完整的JavaScript source map 文件(通常用于內部調試,包含了完整的原始未混淆代碼映射)一同打包發布了出去。

0_XOOO4k6O8i00OO0e.jpg

圖源:Claude

這一“手滑”,直接導致Claude Code內部近2000個源代碼文件、超過51.2萬行的專有 TypeScript 源代碼直接暴露,所有人都可以查看、復制和使用。

更尷尬的是,泄露的代碼中還暴露了Anthropic的一些“小心思”。比如,代碼中包含了一個名為“Undercover Mode(臥底模式)”的系統設定,該設定的內部指令要求AI在參與開源社區代碼貢獻時,必須“隱藏自己是AI的身份”,并禁止使用常規的“Co-Authored-By: AI”標簽。

這種為了繞過開源社區人類開發者審查而設計的隱蔽機制,直接引發了開發者社區關于頂級AI公司隱藏身份參與項目維護的爭論。畢竟真要說的話這多少有些不道德,你技術再強也不應該無視別人的社區規定,更何況從泄露的代碼來看還是“全自動執行”的。

除此之外,還有一個更讓開發者惱火的BUG,該BUG是開發者對泄露代碼檢查時發現的,它會導致Claude Code在恢復會話時錯誤地出現“緩存未命中”的問題。

簡單來說,這個BUG會導致Claude Code把你之前已經花Token執行和推理過的問題,全部再計算一遍。要知道,全量推理和緩存命中之間的Token價格可是差了10倍,你原本打算在接下來10天使用的Token余額,可能會在1天內就消耗殆盡。

ScreenShot_2026-04-02_172943_113.png

圖源:雷科技

這個BUG被曝光后,不少開發者就馬上吐槽說:“怪不得我覺得客戶端的Token消耗比網頁版快得多,原來真有問題”。而且在對BUG進行回溯后,開發者發現這個BUG早在v2.1.69版本中就存在,直到因為源碼泄露被查證后,Anthropic才在后續發布的2.1.90版本上修復。

那么問題來了,Anthropic到底知不知道BUG的存在呢?這就是個耐人尋味的問題了。因為后續開發者們還發現一個問題,那就是Claude Code 會在系統提示詞的第一塊中強行插入一個名為 x-anthropic-billing-header 的字符串。

這個字符串會導致每一個新開啟的對話,系統提示詞前綴都是唯一且不同的。也就是說,即使你的提示詞都是一樣的,Claude Code也會進行一次全量寫入,消耗更多的Token,以至于現在不少開發者都對Anthropic產生了懷疑:這貨不會在偷偷地坑我們錢吧?

只能說,這次代碼泄露對于開發者來說基本沒啥壞事,甚至可以說都是“好事”。只是Anthropic就頭疼了,當然,讓他們更頭疼的事情還在后面。

Anthropic維權“無差別轟炸”惹怒開發者

面對這種戰略級知識產權的“大出血”,Anthropic的反應可謂是“病急亂投醫”的典范。

在代碼泄露的數小時內,不少開發者和安全研究人員已經將其下載并鏡像到了GitHub等平臺。部分泄露倉庫的Star數在極短時間內突破數萬,甚至催生了去除官方安全限制、解鎖實驗性功能的所謂“破解版”。

為了遏制代碼的進一步擴散,Anthropic向GitHub發起了大規模的DMCA(數字千年版權法)下架要求,然后一場悲劇就這么發生了。

Gemini_Generated_Image_4b3tj24b3tj24b3t(1).png

圖源:雷科技

據海外網站的知情者透露,Anthropic在執行代碼清理時,極度依賴于自動化的代碼比對與舉報腳本。這些自動化工具的識別邏輯過于簡單粗暴:只要在代碼庫或README說明文件中檢測到包含泄露代碼的片段或特定關鍵詞,該倉庫就會被直接判定為“侵權”。

這種缺乏人工“合理性檢查”的自動化維權,直接演變成了一場大規模的GitHub倉庫爆破行動。GitHub方面的初期報告顯示,在短短一小時內他們就處理了涵蓋超過8000個倉庫網絡的DMCA通知。

數千個合法開源項目,就因為撞上了自動化腳本的“槍口”而被封禁或強制刪除。其中大多數都是基于 Anthropic 官方公開 API 開發的開源項目,甚至還有 Anthropic 官方自己的部分公共示例庫派生版也被意外屏蔽,屬于是大水沖了龍王廟。

面對這樣的無差別轟炸,眾多受害者在社交媒體和論壇上發起了強烈的抗議,指責Anthropic這種“先斬后奏”的粗暴手段是濫用版權法,不僅給無辜開發者帶來了嚴重的代碼丟失風險和業務停滯,更是嚴重損害了開源生態的基石。

ScreenShot_2026-04-02_182226_797.png

圖源:雷科技

面對洶涌的輿情和大規模的誤傷,Anthropic不得不再次做出緊急回應,與GitHub溝通并撤回了大部分的DMCA通知(縮減至幾十個確切的鏡像分支),并承認自己的做法有欠妥當,后續將加強對相關流程的審核與管理。

不過,此次事件的影響還遠不止于此。網絡安全機構Zscaler ThreatLabz的報告顯示,黑客組織已經開始利用開發者的好奇心,在GitHub上發布偽裝成“Claude Code泄露版”的惡意倉庫,實則內置了Vidar和Ghostsocks等竊密軟件。善后處理估計還要不少時間。

AI翻車不是第一次,也不是最后一次

在雷科技(ID:leitech)看來,Anthropic這次大翻車,說白了還是“對自動化工具和AI腳本的盲目信任”(雖然人類闖的禍也不少)。事實上,在整個科技與商業領域,因為過度迷信AI和自動化系統、減少甚至完全取消人工復核而導致企業損失慘重的事件,早已屢見不鮮。

舉個最近的例子,年初爆火的OpenClaw在3月22日上線了一個號稱“史上最強”的版本更新,并且自豪地宣布該版本的核心引擎95%以上的代碼由AI完成。然后,AI在干活時覺得之前的AI與人類合作寫的代碼過于低效,于是自行決定廢棄舊有的Skill API標準,重新編寫了一套它認為更高效的新API。

于是,OpenClaw最引以為傲的一萬多個Skill就這么全部被廢棄了,如果想繼續使用就要基于新的API做新的調用和優化。由于其本就以全自動化運行著稱,很多部署了OpenClaw的企業一覺醒來,就發現自己的工具全部罷工,只因OpenClaw自動更新了版本并執行了相關操作,導致所有Skill直接失效。

ScreenShot_2026-04-02_182601_935.png

圖源:雷科技

不止如此,OpenClaw的AI在編程時還為了“高效”,私自關閉了多個關鍵的沙箱隔離權限,導致新版本存在更嚴重的安全問題。看到這里你可能會想,那我們回滾到上個版本不就好了?問題就在這里,AI重構后的數據庫與舊版本不兼容,用戶想回滾的話就要面臨數據損壞的風險。

雖然后續OpenClaw發布了一個新的兼容層,但也只能挽回部分損失,以至于不少用戶都跑路到了以“更嚴格的人工審核”著稱的Claude Code(沒錯,就是今天這篇文章的主角)。結果沒過多久Claude Code也暴雷了。好在這次與生產力無關,虧的只是Anthropic。

這次事件后,多數主流開源社區都發布了關于AI生成代碼的相關準則與規定,強制要求所有基于AI的提交都必須經過人工審核,并且配備自動化回歸測試模塊。

還有亞馬遜,從去年12月開始到今年的3月就已經爆了兩次大雷。一次是AWS工程師在使用其自研的Kiro AI編程智能體時,“不小心”直接刪除并重建了整個生產環境,導致AWS成本管理服務在部分區域遭遇13小時的中斷。

第二次則是工程師在處理緊急部署需求時,由于過分相信AI助手給出的建議,導致亞馬遜主站的核心結賬邏輯與物流預測系統發生沖突。據后續統計,有12.5萬個訂單直接丟失,還有超過600萬個訂單因此延誤或出錯。

ScreenShot_2026-04-02_183237_734.png

圖源:雷科技

事后亞馬遜查明,問題根源在于AI錯誤引用了一份過時的內部文檔,導致部署代碼與現有系統產生嚴重沖突,最終引發系統宕機。事實證明,即使有人類在一旁監督管理,如果其本身過分相信AI的話,結果并不會因此有所改變。

一連串的問題最終也讓不少人開始思考:我們到底該如何管理和使用AI的這份能力呢?

解鈴還須系鈴人,AI問題AI治?

面對這一連串因為“盲信AI”而導致的史詩級災難,一個悖論就擺在了整個科技圈面前:隨著AI的代碼生成能力越來越強、邏輯推演越來越復雜,人類開發者審查AI操作的成本正在呈指數級上升。

既然人類已經快要看不懂、也審不過來AI生成的海量代碼與指令了,那么AI惹出的麻煩,最后難道只能靠更強大的AI來解決嗎?在雷科技(ID:leitech)看來,答案既是肯定的,也是否定的。

首先從現實工作的角度來看,引入AI審查是必然的。“AI監督AI”也是目前大多數頭部科技企業的做法之一:通過多個AI智能體的交叉驗證后,再把疑似有問題的代碼提交給人類工程師進行最后的復核,這樣就能降低AI幻覺導致的誤判問題出現的概率。

ScreenShot_2026-04-02_183905_960.png

圖源:雷科技

不過,只有這個還是不夠的,因為Anthropic、亞馬遜等企業的教訓告訴我們,即使有人工復核,問題一樣可能出現。所以更重要的是加入多道防火墻,比如嚴格遵守“最小特權原則”,對AI絕不能開放過多的權限,避免它在無人干預的情況下自行修改核心數據庫和生產環境。

此外,最好是加入由獨立系統負責的“熔斷機制”,當系統監測到異常且大量的高危指令時,直接暫停所有指令的執行,并立即通知人類工程師對指令進行復核。如果Anthropic在大范圍投訴GitHub倉庫侵權時有類似的機制(比如請求投訴超50個倉庫后需要人工確認),估計后續的問題也就不會出現了。

最后,還是需要把責任落實到人的身上。作為AI的使用者與管理者,不能用一句“都是AI干的”來撇清責任,這樣至少能讓人類工程師在使用AI的時候,保持謹慎且小心的態度,避免因為過于信任AI而翻車的情況出現。

雷科技(ID:leitech)認為,AI雖然以顛覆性的方式重塑了我們的生產力,但是人類才是真正的主導者,這一點是不會變的。

AnthropicAI大模型ai編程

來源:雷科技

本文圖片來自:123RF 正版圖庫       來源:雷科技

       原文標題 : Anthropic源碼泄露后續:爆破數千個代碼倉庫,開發者集體怒了

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關注公眾號
    OFweek人工智能網
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯系郵箱:
    *驗 證 碼:

    粵公網安備 44030502002758號